150415 Trabajo de recuperación 9° A y B
EL MÉTODO CIENTÍFICO
Este artículo trata de los diversos métodos científicos utilizados históricamente. Para el uso de la palabra en entornos técnicos actuales ver investigación científica.
El método científico (del griego: -μετά = hacia, a lo largo- -οδός = camino-; y del latín scientia = conocimiento; camino hacia el conocimiento) es un método de investigación usado principalmente en la producción de conocimiento en las ciencias. Para ser llamado científico, un método de investigación debe basarse en la empírica y en la medición, sujeto a los principios específicos de las pruebas de razonamiento.1 Según el Oxford English Dictionary, el método científico es: «un método o procedimiento que ha caracterizado a la ciencia natural desde el siglo XVII, que consiste en la observación sistemática, medición, experimentación, la formulación, análisis y modificación de las hipótesis.
El método científico está sustentado por dos pilares fundamentales. El primero de ellos es la reproducibilidad, es decir, la capacidad de repetir un determinado experimento, en cualquier lugar y por cualquier persona. Este pilar se basa, esencialmente, en la comunicación y publicidad de los resultados obtenidos (por ej. en forma de artículo científico). El segundo pilar es la refutabilidad. Es decir, que toda proposición científica tiene que ser susceptible de ser falsada o refutada (falsacionismo). Esto implica que se podrían diseñar experimentos, que en el caso de dar resultados distintos a los predichos, negarían la hipótesis puesta a prueba. La falsabilidad no es otra cosa que el modus tollendo tollens del método hipotético-deductivo experimental. Según James B. Conant, no existe un método científico. El científico usa métodos definitorios, métodos clasificatorios, métodos estadísticos, métodos hipotético-deductivos, procedimientos de medición, entre otros. Y según esto, referirse a el método científico es referirse a este conjunto de tácticas empleadas para constituir el conocimiento, sujetas al devenir histórico, y que eventualmente podrían ser otras en el futuro.3 Ello nos conduce tratar de sistematizar las distintas ramas dentro del campo del método científico.
Historia
Frente a los límites del azar o la casualidad que en pocas ocasiones dan conocimiento o sabiduría, -ya sea conocimiento científico, del bien o, como indica Aristóteles en la Ética a Nicómaco, del bien máximo que es la felicidad-, Platón y el mismo Aristóteles advertían de la necesidad de seguir un método con un conjunto de reglas o axiomas que debían conducir al fin propuesto de antemano. Sócrates, Platón y Aristóteles, entre otros grandes filósofos griegos, propusieron los primeros métodos de razonamiento filosófico, matemático, lógico y técnico.
Durante la época medieval, serán los filósofos, físicos, matemáticos, astrónomos y médicos del mundo islámico quienes hagan suya, desarrollen y difundan la herencia de la filosofía griega -entre otros Alhazen, Al-Biruni y Avicena-. También se debe reconocer a quienes contribuyeron a la difusión de dichos conocimiento por Europa; figuras como Roberto Grosseteste y Roger Bacon junto con la imprescindible labor de la Escuela de Traductores de Toledo.
Pero no será hasta la edad moderna cuando se consolide una nueva filosofía natural. Descartes (1596-1650) en su obra el Discurso del método define por primera vez unas reglas del método para dirigir bien la razón y buscar la verdad en las ciencias.4 Aún con diferencias notables fueron muchos los que defendieron la necesidad de un método que permitiera la investigación de la verdad.
Desde un punto de vista empírico o científico tal y como ahora lo entendemos se debe mencionar a precursores del método científico como Leonardo da Vinci (1452-1519), Copérnico (1473-1543), Kepler (1571-1630) y Galileo Galilei (1564-1642) quienes aplicaban unas reglas metódicas y sistemáticas para alcanzar la verdad. Galileo Galilei contribuyó a reforzar la idea de separar el conocimiento científico de la autoridad, la tradición y la fe.
Desde la filosofía y la ciencia -entonces el conocimiento todavía era unitario y no estaba fraccionado- debemos mencionar, además de Descartes, a Francis Bacon (1561-1626) quien consolidó el método inductivo dando paso al empirismo, a Pascal (1623-1662), Spinoza (1632-1677), Locke (1632-1704), Malebranche (1638-1715), Newton (1643-1727), David Hume (1711-1776), Kant (1724-1804) y Hegel (1770-1831).
La filosofía reconoce numerosos métodos, entre los que están el método por definición, demostración, dialéctico, trascendental, intuitivo, fenomenológico, semiótico, axiomático, inductivo.5 La filosofía de la ciencia es la que, en conjunto, mejor establece los supuestos ontológicos y metodológicos de las ciencias, señalando su evolución en la historia de la ciencia y los distintos paradigmas dentro de los que se desarrolla.
Tipología
La sistematización de los métodos científicos es una materia compleja y difícil. No existe una única clasificación, ni siquiera a la hora de considerar cuántos métodos distintos existen. A pesar de ello aquí se presenta una clasificación que cuenta con cierto consenso dentro de la comunidad científica. Además es importante saber que ningún método es un camino infalible para el conocimiento, todos constituyen una propuesta racional para llegar a su obtención.
Método empírico-analítico. Conocimiento de manera lógica autocorrectivo y progresivo. Características de las ciencias naturales y sociales o humanas. Caracteriza a las ciencias descriptivas. Es el método general más utilizado. Se basa en la lógica empírica. Dentro de éste podemos observar varios métodos específicos con técnicas particulares. Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado.
Método experimental: Algunos lo consideran por su gran desarrollo y relevancia un método independiente del método empírico, considerándose a su vez independiente de la lógica empírica su base, la lógica experimental. Comprende a su vez:
Método hipotético-deductivo. En el caso de que se considere al método experimental como un método independiente, el método hipotético-deductivo pasaría a ser un método específico dentro del método empírico analítico, e incluso fuera de éste.
Método de la observación científica: Es el propio de las ciencias descriptivas.
Método de la medición: A partir del cual surge todo el complejo empírico-estadístico.
Método hermenéutico: Es el estudio de la coherencia interna de los textos, la Filología, la exégesis de libros sagrados y el estudio de la coherencia de las normas y principios.
Método dialéctico: La característica esencial del método dialéctico es que considera los fenómenos históricos y sociales en continuo movimiento. Dio origen al materialismo histórico.
Método fenomenológico. Conocimiento acumulativo y menos autocorrectivo.
Método histórico. Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica. Para conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia.
Método sistémico. Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.
Método sintético. Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.
Método lógico. Es otra gran rama del método científico, aunque es más clásica y de menor fiabilidad. Su unión con el método empírico dio lugar al método hipotético deductivo, uno de los más fiables hoy en día.
Método lógico deductivo: Mediante él se aplican los principios descubiertos a casos particulares, a partir de un enlace de juicios. Destaca en su aplicación el método de extrapolación. Se divide en:
Método deductivo directo de conclusión inmediata: Se obtiene el juicio de una sola premisa, es decir que se llega a una conclusión directa sin intermediarios.
Método deductivo indirecto o de conclusión mediata: La premisa mayor contiene la proposición universal, la premisa menor contiene la proposición particular, de su comparación resulta la conclusión. Utiliza silogismos.
Método lógico inductivo: Es el razonamiento que, partiendo de casos particulares, se eleva a conocimientos generales. Destaca en su aplicación el método de interpolación. Se divide en:
Método inductivo de inducción completa: La conclusión es sacada del estudio de todos los elementos que forman el objeto de investigación, es decir que solo es posible si conocemos con exactitud el número de elementos que forman el objeto de estudio y además, cuando sabemos que el conocimiento generalizado pertenece a cada uno de los elementos del objeto de investigación.
Método inductivo de inducción incompleta: Los elementos del objeto de investigación no pueden ser numerados y estudiados en su totalidad, obligando al sujeto de investigación a recurrir a tomar una muestra representativa, que permita hacer generalizaciones. Éste a su vez comprende:
Método de inducción por simple enumeración o conclusión probable. Es un método utilizado en objetos de investigación cuyos elementos son muy grandes o infinitos. Se infiere una conclusión universal observando que un mismo carácter se repite en una serie de elementos homogéneos, pertenecientes al objeto de investigación, sin que se presente ningún caso que entre en contradicción o niegue el carácter común observado. La mayor o menor probabilidad en la aplicación del método, radica en el número de casos que se analicen, por tanto sus conclusiones no pueden ser tomadas como demostraciones de algo, sino como posibilidades de veracidad. Basta con que aparezca un solo caso que niegue la conclusión para que esta sea refutada como falsa.
Método de inducción científica. Se estudian los caracteres y/o conexiones necesarios del objeto de investigación, relaciones de causalidad, entre otros. Guarda enorme relación con el método empírico.
Método analógico: Consiste en inferir de la semejanza de algunas características entre dos objetos, la probabilidad de que las características restantes sean también semejantes. Los razonamientos analógicos no son siempre válidos.
Descripción
Por proceso o "método científico" se entiende aquellas prácticas utilizadas y ratificadas por la comunidad científica como válidas a la hora de proceder con el fin de exponer y confirmar sus teorías. Las teorías científicas, destinadas a explicar de alguna manera los fenómenos que observamos, pueden apoyarse o no en experimentos que certifiquen su validez. Sin embargo, hay que dejar claro que el mero uso de metodologías experimentales, no es necesariamente sinónimo del uso del método científico, o su realización al 100%. Por ello, Francis Bacon definió el método científico de la siguiente manera:
Observación: Es aplicar atentamente los sentidos a un objeto o a un fenómeno, para estudiarlos tal como se presentan en realidad, puede ser ocasional o causalmente.
Inducción: La acción y efecto de extraer, a partir de determinadas observaciones o experiencias particulares, el principio particular de cada una de ellas.
Hipótesis: Consiste en elaborar una explicación provisional de los hechos observados y de sus posibles causas.
Probar la hipótesis por experimentación.
Demostración o refutación (antítesis) de la hipótesis.
Tesis o teoría científica.
Así queda definido el método científico tal y como es normalmente entendido, es decir, la representación social dominante del mismo. Esta definición se corresponde sin embargo únicamente a la visión de la ciencia denominada positivismo en su versión más primitiva. Empero, es evidente que la exigencia de la experimentación es imposible de aplicar a áreas de conocimiento como la astronomía, la física teórica, etcétera. En tales casos, es suficiente la observación de los fenómenos producidos naturalmente, en los que el método científico se utiliza en el estudio (directos o indirectos) a partir de modelos más pequeños, o a partes de éste.
Por otra parte, existen ciencias no incluidas en las ciencias naturales, especialmente en el caso de las ciencias humanas y sociales, donde los fenómenos no sólo no se pueden repetir controlada y artificialmente (que es en lo que consiste un experimento), sino que son, por su esencia, irrepetibles, por ejemplo la historia. De forma que el concepto de método científico ha de ser repensado, acercándose más a una definición como la siguiente:
proceso de conocimiento caracterizado por el uso constante e irrestricto de la capacidad crítica de la razón, que busca establecer la explicación de un fenómeno ateniéndose a lo previamente conocido, resultando una explicación plenamente congruente con los datos de la observación.
Así, por método o proceso científico se entiende aquellas prácticas utilizadas y ratificadas por la comunidad científica como válidas a la hora de proceder con el fin de exponer y confirmar sus teorías, como por ejemplo los Postulados de Koch para la microbiología. Las teorías científicas, destinadas a explicar de alguna manera los fenómenos que observamos, pueden apoyarse o no en experimentos que certifiquen su validez.
El método científico como método para la eliminación de falacias y prejuicios
El método científico envuelve la observación de fenómenos naturales y luego, la postulación de hipótesis y su comprobación mediante la experimentación. Pues bien, los prejuicios cognitivos no son más que hipótesis, inducciones o construcciones mentales que han sido sesgadas positiva o negativamente por el cerebro. Asimismo cuando se realizan afirmaciones o se argumenta y estos prejuicios cognitivos salen a la luz se convierten en falacias. El prejuicio cognitivo o proceso mental con el que se sesgan las creencias no se puede eliminar pues es un aspecto fisiológico intrínseco a la psique del ser humano y que además parece estar extendido evolutivamente ya que cumple su función en la asociación y reconocimiento de objetos cotidianos, véase por ejemplo pareidolia. Lo que es posible es compensar el sesgo o modificar las propias creencias mediante el método científico como mecanismo para descartar hipótesis que son falsas. De esta forma, el sesgo se situaría en dirección a hipótesis que son menos falsas hasta nuevas revisiones en busca de factores desconocidos o nueva información.
La ciencia no pretende ser ni absoluta, ni autoritaria, ni dogmática. Todas las ideas, hipótesis, teorías; todo el conocimiento científico está sujeto a revisión, a estudio y a modificación. El conocimiento que tenemos representa las hipótesis científicas y teorías respaldadas por observaciones y experimentos (método empírico).
Para no caer en el prejuicio cognitivo es necesario, por tanto, la experimentación, el no hacerlo llevaría a la misma negligencia puesto que la verdad de una aseveración según el método científico recae en la fuerza de sus evidencias comprobadas por experimentación. Después de llevar a cabo la experimentación se analizan los resultados y se llega a una conclusión. Si los resultados respaldan la hipótesis, ésta adquiere validez; si los resultados la refutan, ésta se descarta o se modifica presentando nuevas formas para refutarla.
El método científico es también afectado naturalmente por los prejuicios cognitivos ya que los efectos asociativos de nuestra mente son los que permiten, al mismo tiempo, lanzar el mayor número de hipótesis. Sin embargo, el método, si es bien ejecutado en sus últimos y más importantes pasos, permite desecharlas.
El primer paso en el método científico de tipo empírico es la observación cuidadosa de un fenómeno y la descripción de los hechos, es aquí donde entran en juego los prejuicios. Después, el científico trata de explicarlo mediante hipótesis las cuales, ya están sesgadas por los prejuicios en la percepción de los acontecimientos o en las propias creencias. Sin embargo, solamente las ideas que puedan comprobarse experimentalmente están dentro del ámbito de la ciencia lo que permite desechar muchas teorías. Si las hipótesis enunciadas fueran invalidades deberían predecir las consecuencias en el experimento y además debería ser posible repetirlas. De esta forma, mediante la experimentación, la repetición y supervisión del experimento por parte de personas que pudieran tener otros sesgos cognitivos se minimizan los errores del experimento, los errores en la interpretación de los resultados o errores en estadísticas que harían a la teoría una falsa o imprecisa creencia. Por eso, en ciencia se usa la revisión por pares, a mayor número de revisiones menor probabilidad de sesgo o de falsa interpretación de los datos experimentales, con lo que el trabajo es considerado más riguroso o estable. Un proceso así aunque mucho menos riguroso se puede observar en el pensamiento crítico cuando éste requiere de investigación activa propia para el esclarecimiento de argumentos y comprobación de las fuentes de información. En el pensamiento crítico se toman decisiones en función de la carga de la prueba que se hayan realizado sobre las fuentes y los argumentos y la información que se obtiene puede llegar a ser indirecta (de ahí la falta de rigurosidad). En el método científico no solo debe ser el hecho probado por la experimentación directa sino que debe ser posible repetirlo.
El método empírico es un gran avance pues permite aproximarse a la verdad. Es un gran hito que ha permitido avanzar a la sociedad y debe ser dado a conocer ampliamente para extender su uso en otras disciplinas, sin embargo, el método sigue siendo un método que está restringido a la capacidad del evaluador. Esto quiere decir, que no solo los sesgos o la cultura influyen en el método sino que también éste está limitado por la capacidad misma de la especie humana. Es el ser humano el que no solo propone las ideas sino que decide cómo verificarlas. ¿Qué ocurriría si el ser humano no fuera capaz de ver más allá de su inteligencia para saber la verdad?.6 La idea de que existe una limitación de la especie limita la misma aplicación del método. Para evitar esto, tal y como la evolución generó desde el mismo caos no inteligente seres tan complejos como los humanos, la combinación aleatoria de elementos de experimentación junto a la paralelización de la experimentación y unas reglas energéticas claras, deberían realizar descubrimientos aleatorios en largos periodos de tiempo. La combinación de estos dos métodos el evolutivo-aleatorio junto con el método científico empírico podrían producir avances más importantes por no estar constreñidos al marco cultural actual. De hecho mucho de los avances científicos se han producido por casualidad, error y suerte y no por deducción consciente.
El problema con los prejuicios cognitivos es que normalmente se aplican a conceptos que cambian con regularidad quizás a una velocidad mayor de lo que es posible medirlo mediante pruebas o experimentación, además no son uniformes y poseen excepciones, estos prejuicios se basan por tanto en probabilidades y no en afirmaciones certeras. El método científico por lo menos permite ponderar estas probabilidades, realizar estadísticas y revisar la propia seguridad en las afirmaciones. De esta forma debería eliminar la posición de certeza o del perfecto conocimiento del funcionamiento del mundo (otro sesgo extendido). El método científico, por tanto, se convierte en el método maestro para probar hipótesis y desechar las falsas. A esto se refería Einstein cuando dijo "No existe una cantidad suficiente de experimentos que muestren que estoy en lo correcto; pero un simple experimento puede probar que me equivoco". De otra forma, sin el método científico, las presunciones o prejuicios quedarían fijas cuando las circunstancias cambian, sujetas a nuestras propias interpretaciones de la realidad.
Modelo clásico
El modelo clásico de investigación científica deriva del trabajo de Aristóteles,7 quien distinguió las formas del razonamiento aproximado y el exacto, estableció el esquema de tres puntos de los razonamientos abductivo, deductivo e inductivo, y también trató las formas compuestas tales como el razonamiento por analogía.
Modelo pragmático
En 1877,8 Charles Sanders Peirce caracterizó la investigación en general no como la persecución de la verdad per se, sino como el esfuerzo para desplazarse de las irritantes e inhibitorias dudas, nacidas de las sorpresas, desacuerdos y demás, y así alcanzar una creencia segura, creencia en la cual uno está preparado para actuar. Enmarcó la investigación científica como parte de un espectro mayor e incitado por la misma duda, no por meras dudas verbales o hiperbólicas, las cuales sostenía que eran infructuosas.9 Delineó cuatro métodos para establecer opiniones, ordenadas de la menos a la más exitosa:
El método de la tenacidad (política de no apartarse de la crencia inicial) – la cual trae consuelo y firmeza pero guía a intentar ignorar la información contraria y otros puntos de vista como si la verdad fuera intrínsecamente privada y no pública. Va contra el impulso social y los dubitativos ya que uno puede darse cuenta cuando la opinión ajena es igual de buena que la propia. Sus éxitos pueden ser brillantes pero tienden a ser transitorios.
El método de la autoridad - se sobrepone a los desacuerdos, pero a veces con cierta brutalidad. Sus éxitos pueden ser majestuosos y duraderos, pero no puede funcionar plenamente como para suprimir las dudas indefinidamente, en especial cuando la gente aprende de sociedades presentes y pasadas.
El método del a priori – que promueve la conformidad con menor brutalidad pero fomenta que las opiniones sean como los gustos, surgiendo en conversaciones y comparaciones de perspectivas en términos de lo que es "aceptable por la razón." Por tanto depende de las modas, y es cíclico con el tiempo. Es más intelectual y respetable pero, como en los primeros dos métodos, sostiene creencias caprichosas y accidentales, haciendo que algunas mentes entren en duda.
El método científico – el método en el que la investigación se tiene a sí misma como falible, y por ello se prueba, se critica, se corrige y se mejora así misma.
Comunicación y comunidad
Con frecuencia, el método científico es empleado no sólo por una persona, sino por varios individuos que cooperan entre ellos de manera directa o indirecta. Dicha cooperación puede ser vista como uno de los elementos que definen una comunidad científica. Se han desarrollado varias técnicas para asegurar la integridad de la metodología científica dentro de estos ambientes.
Evaluación por revisión por pares
Las revistas científicas usan un proceso de revisión por pares, por el cual se envían los manuscritos de los científicos a un número indeterminado (normalmente de uno a tres) de científicos de la misma rama, casi siempre dentro del anonimato, para que realicen una evaluación del trabajo. Estos árbitros pueden o no recomendar la publicación, la publicación con ciertas modificaciones o, en ocasiones, la publicación en otra revista. Esto sirve para mantener la literatura científica libre de trabajos pseudocientíficos o acientíficos, para ayudar en evitar errores obvios, y en general mejorar la calidad del material. El proceso de revisión por pares puede tener ciertas limitaciones cuando se considera la investigación fuera del paradigma científico convencional: los problemas de pensamiento de grupo pueden interferir con una deliberación abierta y justa de algunas nuevas investigaciones.
Documentación y replicación
A veces, los experimentadores pueden cometer errores sistemáticos durante sus investigaciones, desviándose inconscientemente del método científico y cayendo en la ciencia patológica por varios motivos o, en raras ocasiones, informar conscientemente de falsos resultados. En consecuencia, es una práctica común para otros científicos el intentar repetir los experimentos con la intención de duplicar los resultados, verificando así la hipótesis.
Archivo
Como resultado, a los investigadores se les supone la práctica del archivo de datos científicos, cumpliendo así con las políticas de las revistas científicas y las agencias gubernamentales de subvención. El registro detallado de sus procedimientos experimentales, datos en bruto, análisis estadísticos y códigos fuente se conserva con la intención de suministrar pruebas de la efectividad e integridad del procedimiento y asistir en la reproducción. Estos registros de los procedimientos también pueden ayudar en la concepción de nuevos experimentos para comprobar las hipótesis, y pueden resultar útiles a los ingenieros que podrían examinar las aplicaciones prácticas en potencia de un descubrimiento cualquiera.
Intercambio de datos
Cuando se requiere información adicional antes de que un estudio pueda ser reproducido, se espera que el autor del estudio lo proporcione con puntualidad. Si dicho autor se niega a intercambiar sus datos, se puede reclamar a los editores de las publicaciones que hicieron públicos los estudios o a las instituciones que subvencionaron la investigación.
Limitaciones
Dado que resulta imposible para un científico registrarlo absolutamente todo lo que ocurre en un experimento, sólo se informa de los hechos que pueden ser subjetivamente relevantes. Esto puede llevar, inevitablemente, a posteriores problemas si se cuestiona algo supuestamente irrelevante. Por ejemplo, Heinrich Hertz no informó del tamaño de la habitación que se usó para comprobar las ecuaciones de Maxwell, que posteriormente acabaron produciendo una ligera desviación en los resultados. El problema es que partes de la propia teoría tienen que ser asumidas para poder seleccionar e informar de las condiciones del experimento. Las observaciones, por tanto, son a veces tildadas de estar "cargadas de teoría".
Dimensiones de la práctica
Las principales restricciones a la ciencia contemporánea son:
Publicación, por ejemplo la revisión por pares
Recursos, principalmente económicos
A pesar de esto, las condiciones no han sido siempre iguales: en los viejos días de los "gentleman scientist", que subvencionaban y publicaban los trabajos, las restricciones eran mucho menos severas.
Ambas limitaciones requieren de manera indirecta del método científico, ya que los trabajos que violan estas restricciones serán difíciles de publicar y difíciles de financiar. Las revistas requieren que los trabajos presentados hayan seguido una buena práctica científica, y esto se comprueba principalmente por la revisión por pares. Originalmente, la importancia y el interés eran más importantes, como el ejemplo de las directrices de autor de la revista Nature.
Filosofía y sociología de la ciencia
La filosofía mira directamente a los apoyos lógicos del método científico, lo que separa a la ciencia de la no-ciencia y a la ética de la investigación que se supone implícita a la ciencia. Existen varias suposiciones básicas, derivadas de la filosofía por al menos un científico de renombre, que forman la base del método científico, como puede ser que la realidad sea objetiva y consistente, que los humanos tengan la capacidad de percibir la realidad con precisión, y que existen explicaciones racionales para cualquier elemento del mundo real.11 Estas suposiciones del naturalismo metodológico forman una base sobre la que se puede asentar la ciencia. El positivismo lógico, empirismo, falsabilidad, y otras teorías han criticado estas suposiciones y han dado visiones alternativas de la lógica de la ciencia, pero todas ellas también han sido, por otra parte, criticadas.
Thomas Kuhn examinó la historia de la ciencia en su La estructura de las revoluciones científicas, y encontró que el método utilizado por los científicos se diferenciaban con importancia del método utilizado con anterioridad. Sus observaciones de la práctica científica eran principalmente sociológicas y no hablan sobre como la ciencia puede ser practicada en otros tiempos o por otras culturas.
Norwood Russell Hanson, Imre Lakatos y Thomas Kuhn han trabajado en profundidad en el característico "cargado de teoría" de la observación. Hanson acuñó la idea de que toda la observación es dependiente del marco conceptual del observador, usando el concepto de psicología de la Gestalt para mostrar como las preconcepciones pueden afectar tanto a la observación como a la descripción.12 Comienza su primer capítulo con una discusión sobre el aparato de Golgi y su rechazo inicial como artefacto para teñir, y una discusión entre Brahe y Kepler observando el amanecer, que ven salir al sol de manera diferente a pesar de ser el mismo fenómeno fisiológico. Kuhn13 y Feyerabend14 reconocen ser los pioneros en encontrar la importancia de este trabajo.
Kuhn dijo en 1961 que el científico tiene una teoría en su mente antes de diseñar y llevar a cabo los experimentos que le llevarán a las observaciones empíricas, y que el camino de la teoría a la medición casi nunca puede ser hecho al revés. Esto implica que la manera en que la teoría es comprobada está dictada por la naturaleza de la misma teoría, lo que llevó al autor a argumentar que "una vez ha sido adoptada por una profesión, no se reconoce que ninguna teoría sea comprobable a través de ningún examen cuantitativo que no haya superado ya".15
Paul Feyerabend examinó de manera similar la historia de la ciencia, lo que le llevó a negar que la ciencia sea un proceso genuinamente metodológico. En su libro Contra el método argumenta que el progreso científico no es el resultado de aplicar ningún método concreto. Básicamente, dice que para cualquier método específico o norma de la ciencia, uno puede encontrar un episodio histórico en el que violarlo ha contribuido al progreso científico. Por tanto, si los que creen en el método científico desean expresar una simple regla universalmente válida, Feyerabend sugiere en broma que cualquier cosa vale.16 Esta clase de críticas han llevado a un programa fuerte, un acercamiento radical a la sociología de la ciencia.
Las críticas posmodernistas a la ciencia han sido sujeto de intensas controversias. Este debate que a día de hoy sigue activo, conocido como las guerras de la ciencia, es el resultado de aplicar valores conflictivos y suposiciones entre el posmodernismo y el realismo científico. Mientras que los posmodernistas afirman que el conocimiento científico no es más que otro discurso (darse cuenta del significado especial de este término en el contexto) y que no es representativo de ninguna forma de verdad fundamental, los realistas en la comunidad científica mantienen que el conocimiento científico revela verdades reales y fundamentales de la realidad. Se han escrito muchos libros por científicos que han tomado este problema y han desafiado las afirmaciones de los posmodernistas mientras defienden a la ciencia como un método legítimo de derivar la verdad.
Rol en las posibilidades del descubrimiento
En algún punto entre el 33 % y el 50 % de todos los descubrimientos científicos se encuentra la tasa de descubrimiento científicos que, en lugar de haber sido encontrados, fueron hallados por casualidad. Esto puede explicar el por qué con frecuencia los científicos dicen que tuvieron suerte.18 A Louis Pasteur se le acredita la famosa frase: "La suerte está a favor de la mente preparada", pero algunos psicólogos han empezado a estudiar lo que significa "estar preparado para la suerte" en un contexto científico. La investigación está mostrando que a los científicos se les enseñan varias heurísticas que tienden a aprovechar la oportunidad y lo inesperado.18 19 Esto es lo que Nassim Nicholas Taleb llama la "antifragilidad"; mientras que algunos sistemas de investigación son frágiles delante del error humano, las preferencias humanas y el azar, el método científico es más duro y resistente; de tal manera se beneficia de esa aleatoriedad de diferentes formas, ya que es antifrágil. Taleb cree que cuanto más antifrágil sea el sistema, más resultados dará en el mundo real.20
El psicólogo Kevin Dunbar dice que el proceso del descubrimiento a menudo comienza con un grupo de investigadores encontrando fallos en sus experimentos. Estos resultados inesperados llevan a los investigadores a intentar arreglar lo que piensan que puede ser el error en sus métodos. Llegado un punto, el investigador decide que el error es demasiado persistente y sistemático como para ser una coincidencia. Los aspectos altamente controlados, curiosos y cautelosos del método científico son por tanto lo que lo hacen adecuado para identificar dichos errores persistentes. En este momento, el investigador empezará a pensar diversas explicaciones teóricas de dicho fallo, frecuentemente buscando la ayuda de colegas pertenecientes a diferentes dominios de la experiencia.
Relación con las matemáticas
La ciencia es el proceso de recopilar, comparar y evaluar modelos propuestos con lo observable. Un modelo puede ser una simulación, una fórmula matemática o química, o una serie de pasos propuestos de antemano. La ciencia es como las matemáticas en el sentido de que los investigadores de ambas disciplinas pueden distinguir con claridad lo que es conocido de lo que es desconocido en cada etapa del descubrimiento. Los modelos, tanto científicos como matemáticos, necesitan ser internamente consistentes, al igual que también deben ser refutables. En las matemáticas, una afirmación no debe ser demostrada en el mismo momento; ya que en esa etapa una afirmación todavía sería llamada una conjetura. Sin embargo, cuando dicha afirmación ha adquirido una demostración matemática, ésta gana una especie de inmortalidad que es altamente apreciada por los matemáticos, y por la cual algunos matemáticos dedican sus vidas.21
El trabajo matemático y el científico se pueden inspirar el uno al otro.22 Por ejemplo, el concepto técnico del tiempo surgió de la ciencia, y la intemporabilidad fue un distintivo tema de las matemáticas. Pero al día de hoy, la conjetura de Poincaré ha sido demostrada usando el tiempo como un concepto matemático en el que los objetos pueden fluir (ver el Flujo de Ricci).
Aún así, la conexión entre las matemáticas y la realidad (al igual que la ciencia hasta el punto en el que describe la realidad) permanece en la oscuridad. El trabajo de Eugene Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences, es un conocido acercamiento al problema de este físico ganador de un Premio Nobel. De hecho, algunos observadores, tales como Gregory Chaitin y George Lakoff, han sugerido que las matemáticas son el resultado de las limitaciones humanas (incluyendo las culturales) con las inclinaciones del practicante, algo así como una visión de la ciencia de corte pos-modernista.
El trabajo de George Pólya sobre la resolución de problemas,23 la construcción de pruebas matemáticas y la heurística24 25 demuestran que el método matemático y el científico difieren en detalles, que de todas formas hacen parecerse entre ellos al usar unos pasos iterativos y repetitivos.
Método matemático Método científico
1 Comprensión Caracterización por la experiencia y la observación
2 Análisis Desarrollo de hipótesis
3 Síntesis Predicción de hipótesis
4 Revisión - Generalización Experimentación
Según el punto de vista de Pólya, comprender incluye reformular las definiciones que resultan poco familiares con las propias palabras de uno, recurriendo a figuras geométricas, y cuestionando lo que sabemos y no sabemos todavía; análisis, el cual Pólya toma de Pappus de Alejandría,26 incluye una construcción libre y heurística de argumentos plausibles, trabajando hacia atrás desde el objetivo, y divisando un plan para construir una prueba; síntesis es la exposición estrictamente euclídea de los detalles paso a paso27 de la prueba; revisión incluye la reconsideración y la reexaminación del resultado y del camino que ha llevado hasta él.
Gauss, cuando fue preguntado sobre como llegó hasta sus teoremas, contestó en una ocasión "durch planmässiges Tattonieren" (a través de la experimentación sistemática palpable).28
Imre Lakatos discutió que los matemáticos hacen uso de la contradicción, la crítica y la revisión como principios para mejorar su trabajo.29 De igual manera que la ciencia, donde se busca la verdad, pero no se encuentra la certeza, en Pruebas y refutaciones (1976), en el cual Lakatos intentó establecer que no existe el teorema de las matemáticas informales que sea final ni perfecto. Esto significa que no debemos pensar que un teorema sea definitivamente cierto, sólo que, por ahora, no se ha encontrado un contraejemplo. Una vez se encuentre dicho contraejemplo, como una entidad que se contradiga por el teorema, se ajusta el teorema, posiblemente extendiendo el dominio de su validez. Esta es una manera de acumular nuestro conocimiento, a través de la lógica y el proceso de demostraciones y refutaciones. (Si se dan axiomas para una sola rama de las matemáticas, Lakatos afirmó que las demostraciones de dichos axiomas son tautológicas; por ejemplo, la verdad lógica, fue reescrita, tal como hizo Poincaré [Pruebas y refutaciones, 1976].)
Lakatos propuso una cuenta de conocimiento matemático basado en la idea de Polya de la heurística. En Pruebas y refutraciones, Lakatos dio varias reglas básicas para encontrar pruebas y contraejemplos a las conjeturas. Pensaba que los experimentos pensados para las matemáticas eran una vía válida para descubrir conjeturas y pruebas matemáticas
El Calor
El sol suele dar una sensación de calor.
Esquema de la transferencia de calor por conducción.
El calor se define como la transferencia de energía térmica que se da entre diferentes cuerpos o diferentes zonas de un mismo cuerpo que se encuentran a distintas temperaturas, sin embargo en termodinámica generalmente el término calor significa transferencia de energía. Este flujo de energía siempre ocurre desde el cuerpo de mayor temperatura hacia el cuerpo de menor temperatura, ocurriendo la transferencia hasta que ambos cuerpos se encuentren en equilibrio térmico (ejemplo: una bebida fría dejada en una habitación se entibia).
La energía calórica o térmica puede ser transferida por diferentes mecanismos de transferencia, estos son la radiación, la conducción y la convección, aunque en la mayoría de los procesos reales todos se encuentran presentes en mayor o menor grado. Cabe resaltar que los cuerpos no tienen calor, sino energía térmica. La energía existe en varias formas. En este caso nos enfocamos en el calor, que es el proceso mediante el cual la energía se puede transferir de un sistema a otro como resultado de la diferencia de temperatura.
Hasta el siglo XIX se explicaba el efecto del ambiente en la variación de la temperatura de un cuerpo por medio de un fluido invisible llamado calórico. Este se producía cuando algo se quemaba y, además, que podía pasar de un cuerpo a otro. La teoría del calórico afirmaba que una sustancia con mayor temperatura que otra, necesariamente, poseía mayor cantidad de calórico.
Benjamin Thompson y James Prescott Joule establecieron que el trabajo podía convertirse en calor o en un incremento de la energía térmica determinando que, simplemente, era otra forma de la energía.
Calor específico
El calor específico es la energía necesaria para elevar 1 °C la temperatura de un gramo de materia. El concepto de capacidad calorífica es análogo al anterior pero para una masa de un mol de sustancia (en este caso es necesario conocer la estructura química de la misma).
El calor específico es un parámetro que depende del material y relaciona el calor que se proporciona a una masa determinada de una sustancia con el incremento de temperatura-
Las unidades más habituales de calor específico son J / (kg • K) y cal / (g • °C).
El calor específico de un material depende de su temperatura; no obstante, en muchos procesos termodinámicos su variación es tan pequeña que puede considerarse que el calor específico es constante. Asimismo, también se diferencia del proceso que se lleve a cabo, distinguiéndose especialmente el "calor específico a presión constante" (en un proceso isobárico) y "calor específico a volumen constante (en un proceso isocórico).
Calor específico molar
El calor específico de una sustancia está relacionado su constitución molecular interna, y a menudo da información valiosa de los detalles de su ordenación molecular y de las fuerzas intermoleculares. A altas temperaturas la mayoría de sólidos tienen capacidades caloríficas En este sentido, con frecuencia es muy útil hablar de calor específico molar denotado por cm, y definido como la cantidad de energía necesaria para elevar la temperatura de un mol de una sustancia en 1 grado .
Cambios de fase.
En la naturaleza existen tres estados usuales de la materia: sólido, líquido y gaseoso. Al aplicarle calor a una sustancia, ésta puede cambiar de un estado a otro. A estos procesos se les conoce como cambios de fase. Los posibles cambios de fase son:
de estado sólido a líquido, llamado fusión,
de estado líquido a sólido, llamado solidificación,
de estado líquido a gaseoso, llamado evaporación o vaporización,
de estado gaseoso a líquido, llamado condensación,
de estado sólido a gaseoso, llamado sublimación progresiva,
de estado gaseoso a sólido, llamado sublimación regresiva o deposición,
de estado gaseoso a plasma, llamado ionización.
de estado plasma a gaseoso, llamado Desionización
Calor latente
Artículo principal: Calor latente
Un cuerpo sólido puede estar en equilibrio térmico con un líquido o un gas a cualquier temperatura, o que un líquido y un gas pueden estar en equilibrio térmico entre sí, en una amplia gama de temperaturas, ya que se trata de sustancias diferentes. Pero lo que es menos evidente es que dos fases o estados de agregación, distintas de una misma sustancia, puedan estar en equilibrio térmico entre sí en circunstancias apropiadas.
Un sistema que consiste en formas sólida y líquida de determinada sustancia, a una presión constante dada, puede estar en equilibrio térmico, pero únicamente a una temperatura llamada punto de fusión simbolizado a veces como t_{\mathrm f}. A esta temperatura, se necesita cierta cantidad de calor para poder fundir cierta cantidad del material sólido, pero sin que haya un cambio significativo en su temperatura. A esta cantidad de energía se le llama calor de fusión, calor latente de fusión o entalpía de fusión, y varía según las diferentes sustancias. Se denota por L_{\mathrm f}.
El calor de fusión representa la energía necesaria para deshacer la fase sólida que está estrechamente unida y convertirla en líquido. Para convertir líquido en sólido se necesita la misma cantidad de energía, por ello el calor de fusión representa la energía necesaria para cambiar del estado sólido a líquido, y también para pasar del estado líquido a sólido.
El calor de fusión se mide en cal / g.
De manera similar, un líquido y un vapor de una misma sustancia pueden estar en equilibrio térmico a una temperatura llamada punto de ebullición simbolizado por t_{\mathrm e}. El calor necesario para evaporar una sustancia en estado líquido ( o condensar una sustancia en estado de vapor ) se llama calor de ebullición o calor latente de ebullición o entalpía de ebullición, y se mide en las mismas unidades que el calor latente de fusión. Se denota por L_{\mathrm e}.
Transmisión de calor.
El calor puede ser transmitido de tres formas distintas: por conducción, por convección o por radiación.
Conducción térmica: es el proceso que se produce por contacto térmico entre dos ó más cuerpos, debido al contacto directo entre las partículas individuales de los cuerpos que están a diferentes temperaturas, lo que produce que las partículas lleguen al equilibrio térmico. Ej: cuchara metálica en la taza de té.
Convección térmica: sólo se produce en fluidos (líquidos o gases), ya que implica movimiento de volúmenes de fluido de regiones que están a una temperatura, a regiones que están a otra temperatura. El transporte de calor está inseparablemente ligado al movimiento del propio medio. Ej.: los calefactores dentro de la casa.
Radiación térmica: es el proceso por el cual se transmite a través de ondas electromagnéticas. Implica doble transformación de la energía para llegar al cuerpo al que se va a propagar: primero de energía térmica a radiante y luego viceversa. Ej.: La energía solar.
La conducción pura se presenta sólo en materiales sólidos. La convección siempre está acompañada de la conducción, debido al contacto directo entre partículas de distinta temperatura en un líquido o gas en movimiento. En el caso de la conducción, la temperatura de calentamiento depende del tipo de material, de la sección del cuerpo y del largo del cuerpo. Esto explica por qué algunos cuerpos se calientan más rápido que otros a pesar de tener exactamente la misma forma, y que se les entregue la misma cantidad de calor.
Medida experimental del calor
Para determinar, de manera directa, el calor que se pone de manifiesto en un proceso de laboratorio, se suele emplear un calorímetro. En esencia, se trata de un recipiente que contiene el líquido en el que se va a estudiar la variación de energía por transferencia de calor y cuyas paredes y tapa (supuestamente adiabáticas) deben aislarlo, al máximo, del exterior.
Un termo de paredes dobles de vidrio, cuyas superficies han sido previamente metalizadas por deposición y que presenta un espacio vacío entre ellas es, en principio, un calorímetro aceptable para una medida aproximada de la transferencia de calor que se manifiesta en una transformación tan sencilla como esta. El termo se llama vaso Dewar y lleva el nombre del físico y químico escocés James Dewar, pionero en el estudio de las bajas temperaturas. En la tapa aislante suele haber un par de orificios para introducir un termómetro con el que se evaluaría el incremento (o decremento) de la temperatura interior del líquido, y un agitador para tratar de alcanzar el equilibrio térmico en su interior lo más rápido posible, usando un sencillo mecanismo de convección forzada.
No sólo el líquido contenido en el calorímetro absorbe calor, también lo absorben las paredes del calorímetro. Lo mismo sucede cuando pierde calor. Esta intervención del calorímetro en el proceso se representa por su equivalente en agua. La presencia de esas paredes, no ideales, equivale a añadir al líquido que contiene, los gramos de agua que asignamos a la influencia del calorímetro y que llamamos "equivalente en agua". El "equivalente en agua" viene a ser "la cantidad de agua que absorbe o desprende el mismo calor que el calorímetro".
Unidades de medida
La unidad de medida del calor en el Sistema Internacional de Unidades es la misma que la de la energía y el trabajo: el Joule.
Otra unidad ampliamente utilizada para medir la cantidad de energía térmica intercambiada es la caloría (cal), que es la cantidad de energía que hay que suministrar a un gramo de agua para elevar su temperatura 1 °C. Diferentes condiciones iniciales dan lugar a diferentes valores para la caloría. La caloría también es conocida como caloría pequeña, en comparación con la kilocaloría (kcal), que se conoce como caloría grande y es utilizada en nutrición.
1 kcal = 1000 cal
Joule, tras múltiples experimentaciones en las que el movimiento de unas palas, impulsadas por un juego de pesas, se movían en el interior de un recipiente con agua, estableció el equivalente mecánico del calor, determinando el incremento de temperatura que se producía en el fluido como consecuencia de los rozamientos producidos por la agitación de las palas:
1 cal = 4,184 J1
El BTU (unidad térmica británica), es una medida para el calor muy usada en Estados Unidos de América y en muchos otros países de América. Se define como la cantidad de calor que se debe agregar a una libra de agua para aumentar su temperatura en un grado Fahrenheit' y equivale a 252 calorías.
Termodinámica y transferencia de calor
La termodinámica se interesa en la cantidad de transferencia de calor a medida que un sistema pasa por un proceso, sin indicar cuánto tiempo transcurrirá. Un estudio termodinámico sencillamente nos dice cuánto calor debe transferirse para que se realice un cambio de estado específico, con el fin de cumplir con el principio de conservación de la energía. En la experiencia nos enfocamos más en la velocidad de la transferencia de calor que en la cantidad transferida. La termodinámica trata de los estados en equilibrio y de los cambios que ocurren entre un estado de equilibrio y otro. Por otra parte, la transferencia de calor se ocupa de los sistemas en los que se presenta desequilibrio térmico y, por tanto, existe una condición de no equilibrio. En consecuencia, el estudio de la transferencia de calor no puede basarse sólo en los principios de la termodinámica; sin embargo, existen leyes de la termodinámica que constituyen la base científica de la transferencia de calor.
La primera ley de la termodinámica establece que la velocidad de transferencia de energía hacia un sistema es igual a la velocidad de incremento de la energía de dicho sistema. Su segunda ley, establece que el calor se transfiere en dirección de la temperatura decreciente. El requisito básico para la transferencia de calor es la presencia de una diferencia de temperatura. No existe la más mínima posibilidad de que se dé transferencia neta de calor entre dos medios que están a la misma temperatura, esta diferencia de temperaturas constituye la condición básica necesaria para que se dé transferencia de calor.
Anteriormente mencionamos que el análisis termodinámico no se ocupa de la velocidad de la transferencia de calor en cierta dirección pero, ahora, podemos decir que este parámetro depende de la magnitud del gradiente de temperatura (o diferencia de temperatura por unidad de longitud, o la razón o relación de cambio de la temperatura en esa dirección). A mayor gradiente de temperatura, mayor es la velocidad de transferencia de calor.
Áreas de aplicación de la transferencia de calor
Es común encontrar la transmisión de calor en los sistemas de ingeniería y otros aspectos de la vida; y no es necesario ir muy lejos para ver algunas de sus áreas de aplicación. Es más, uno de los ejemplos más sencillos lo encontramos dentro del cuerpo humano, éste permanece emitiendo calor en forma constante hacia sus alrededores y la comunidad humana está íntimamente influenciada por la velocidad de esta emisión de calor. Tratamos de controlar la velocidad de esta transferencia de calor al ajustar nuestra ropa a las condiciones ambientales. Muchos aparatos domésticos se han diseñado, en su totalidad o en parte, aplicando los principios de la transferencia de calor. Algunos ejemplos incluyen la estufa eléctrica o de gas, el sistema de calefacción o de acondicionamiento del aire. La transferencia de calor desempeña un papel importante en el diseño de muchos otros aparatos, como los radiadores de automóviles, los colectores solares, diversos componentes de las plantas generadoras de energía e, incluso, las naves espaciales.
Transferencia de calor en la ingeniería
Los problemas de capacidad nominal se ocupan de la determinación de la velocidad de transferencia de calor para un sistema existente con una diferencia específica de temperatura. Los problemas de dimensionamiento se ocupan de la determinación del tamaño de un sistema con el fin de transferir calor a una velocidad determinada para una diferencia específica de la temperatura. Un proceso o un equipo de transferencia de calor puede ser analizado de forma experimental o de forma analítica. El procedimiento experimental tiene la ventaja de tratar con el sistema físico real y, gracias a ello, la cantidad deseada se determina mediante medición, dentro de los límites del error experimental. El procedimiento analítico tiene la ventaja de que es rápido y barato, pero los resultados obtenidos dependen de la exactitud de las hipótesis e idealizaciones establecidas en el análisis. En los estudios de transferencia de calor a menudo se logra una buena aproximación reduciendo, mediante el análisis, las opciones a solo unas cuantas y, a continuación, verificando los hallazgos experimentalmente.
Sensación de calor en el ser humano.
Generalmente en la mayoría de los países, se habla ya de calor cuando la temperatura supera los 26 ºC en cualquier hora del día, aunque varía mucho según la estación del año en que se encuentre una persona. Por ejemplo, 20 ºC en verano es considerado una temperatura fresca, mientras que en invierno, esta temperatura es considerada templada o cálida.
El fenómeno "ola de calor" se da cuando las temperaturas diurnas superan los 32 ºC y las nocturnas (o al amanecer) no bajan de los 23 ºC por tres días y es común en casi todo tipo de climas en época veraniega, a excepción de los países cerca de los polos, con clima templado y polar, cuando es muy infrecuente o casi nulo, y se hace más frecuente cuando los países están más cerca de los trópicos (países con climas tropical y subtropical). Esta denominación de ola de calor no quiere decir necesariamente calor excesivo ni temperaturas inusuales para la estación; pretende alertar sobre consecuencias perjudiciales en personas o colectivos vulnerables.
El ser humano siente más calor cuando hay más humedad en el ambiente. Por ejemplo, una temperatura de 30 ºC, pero con humedad ambiental del 10 %, se sentirá como si el ambiente fuese de solo 28 ºC. Pero con humedad ambiental del 90 %, se sentirá como si el ambiente fuese de 40 ºC.
La termodinámica (del griego θερμo, termo, que significa «calor»1 y δύναμις, dínamis, que significa «fuerza»)2 es la rama de la física que describe los estados de equilibrio a nivel macroscópico.3 Constituye una teoría fenomenológica, a partir de razonamientos deductivos, que estudia sistemas reales, sin modelizar y sigue un método experimental.4 Los estados de equilibrio se estudian y definen por medio de magnitudes extensivas tales como la energía interna, la entropía, el volumen o la composición molar del sistema,5 o por medio de magnitudes no-extensivas derivadas de las anteriores como la temperatura, presión y el potencial químico; otras magnitudes, tales como la imanación, la fuerza electromotriz y las asociadas con la mecánica de los medios continuos en general también pueden tratarse por medio de la termodinámica.6
La termodinámica ofrece un aparato formal aplicable únicamente a estados de equilibrio,7 definidos como aquel estado hacia «el que todo sistema tiende a evolucionar y caracterizado porque en el mismo todas las propiedades del sistema quedan determinadas por factores intrínsecos y no por influencias externas previamente aplicadas».5 Tales estados terminales de equilibrio son, por definición, independientes del tiempo, y todo el aparato formal de la termodinámica –todas las leyes y variables termodinámicas–, se definen de tal modo que podría decirse que un sistema está en equilibrio si sus propiedades pueden describirse consistentemente empleando la teoría termodinámica.5 Los estados de equilibrio son necesariamente coherentes con los contornos del sistema y las restricciones a las que esté sometido. Por medio de los cambios producidos en estas restricciones (esto es, al retirar limitaciones tales como impedir la expansión del volumen del sistema, impedir el flujo de calor, etc.), el sistema tenderá a evolucionar de un estado de equilibrio a otro;8 comparando ambos estados de equilibrio, la termodinámica permite estudiar los procesos de intercambio de masa y energía térmica entre sistemas térmicos diferentes.
Como ciencia fenomenológica, la termodinámica no se ocupa de ofrecer una interpretación física de sus magnitudes. La primera de ellas, la energía interna, se acepta como una manifestación macroscópica de las leyes de conservación de la energía a nivel microscópico, que permite caracterizar el estado energético del sistema macroscópico.9 El punto de partida para la mayor parte de las consideraciones termodinámicas son los que postulan que la energía puede ser intercambiada entre sistemas en forma de calor o trabajo, y que sólo puede hacerse de una determinada manera. También se introduce una magnitud llamada entropía,10 que se define como aquella función extensiva de la energía interna, el volumen y la composición molar que toma valores máximos en equilibrio: el principio de maximización de la entropía define el sentido en el que el sistema evoluciona de un estado de equilibrio a otro.11 Es la mecánica estadística, íntimamente relacionada con la termodinámica, la que ofrece una interpretación física de ambas magnitudes: la energía interna se identifica con la suma de las energías individuales de los átomos y moléculas del sistema, y la entropía mide el grado de orden y el estado dinámico de los sistemas, y tiene una conexión muy fuerte con la teoría de información.12 En la termodinámica se estudian y clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas se pueden combinar para expresar la energía interna y los potenciales termodinámicos, útiles para determinar las condiciones de equilibrio entre sistemas y los procesos espontáneos.
Con estas herramientas, la termodinámica describe cómo los sistemas responden a los cambios en su entorno. Esto se puede aplicar a una amplia variedad de ramas de la ciencia y de la ingeniería, tales como motores, cambios de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros negros.
Historia de la termodinámica
La historia de la termodinámica como disciplina científica se considera generalmente que comienza con Otto von Guericke quien, en 1650, construyó y diseñó la primera bomba de vacío y demostró las propiedades del vacío usando sus hemisferios de Magdeburgo. Guericke fue impulsado a hacer el vacío con el fin de refutar la suposición de Aristóteles que "la naturaleza aborrece el vacío". Poco después de Guericke, el físico y el químico Robert Boyle estudió y mejoró los diseños de Guericke y en 1656, en coordinación con el científico Robert Hooke, construyó una bomba de aire. Con esta bomba, Boyle y Hooke observaron una correlación entre la presión, temperatura y volumen. Con el tiempo, se formularon la ley de Boyle, indicando que para un gas a temperatura constante, la presión y el volumen son inversamente proporcionales y otras leyes de los gases.
En 1679, un asociado de Boyle, Denis Papin basándose en estos conceptos, construyó un digestor de vapor, que era un recipiente cerrado con una tapa de cierre hermético en el que el vapor confinado alcanzaba una alta presión, aumentando el punto de ebullición y acortando el tiempo de cocción de los alimentos.
En 1697, el ingeniero Thomas Savery, a partir de los diseños de Papin, construyó el primer motor térmico, seguido por Thomas Newcomen en 1712. Aunque estos primeros motores eran toscos y poco eficientes, atrajeron la atención de los científicos más destacados de la época.
En 1733, Bernoulli usó métodos estadísticos, junto con la mecánica clásica, para extraer resultados de la hidrodinámica, iniciando la mecánica estadística.
En 1781 los conceptos de capacidad calorífica y calor latente, fueron desarrollados por el profesor Joseph Black de la Universidad de Glasgow, donde James Watt trabajó como fabricante de instrumentos. Watt consultó con Black en las pruebas de la máquina de vapor, pero fue Watt quien concibió la idea del condensador externo, aumentando grandemente la eficiencia de la máquina de vapor.
En 1783, Antoine Lavoisier propone la teoría del calórico.
En 1798 Benjamin Thompson, conde de Rumford, demostró la conversión del trabajo mecánico en calor.
Nicolas Léonard Sadi Carnot, considerado como el "padre de la termodinámica "
Sobre la base de todo este trabajo previo, Sadi Carnot, el "padre de la termodinámica ", publicó en 1824 Reflexiones sobre la energía motriz del fuego, un discurso sobre la eficiencia térmica, la energía, la energía motriz y el motor. El documento describe las relaciones básicas energéticas entre la máquina de Carnot, el ciclo de Carnot y energía motriz, marcando el inicio de la termodinámica como ciencia moderna.
El primer libro de texto sobre termodinámica fue escrito en 1859 por William Rankine, quien originalmente se formó como físico y profesor de ingeniería civil y mecánica en la Universidad de Glasgow. La primera y segunda leyes de la termodinámica surgieron simultáneamente en la década de 1850, principalmente por la obras de Germain Henri Hess, William Rankine, Rudolf Clausius, James Prescott Joule y William Thomson (Lord Kelvin).
Los fundamentos de la termodinámica estadística se establecieron por los físicos como James Clerk Maxwell, Ludwig Boltzmann, Max Planck, Rudolf Clausius, Johannes van der Waals y J. Willard Gibbs.
Desde 1873 hasta el 76, el físico matemático estadounidense Josiah Willard Gibbs publicó una serie de tres artículos, siendo la más famosa Sobre el equilibrio de las sustancias heterogéneas. Gibbs demostró cómo los procesos termodinámicos, incluyendo reacciones químicas, se podrían analizar gráficamente. Mediante el estudio de la energía, la entropía, volumen, potencial químico, la temperatura y la presión del sistema termodinámico, se puede determinar si un proceso se produce espontáneamente. La termodinámica química y la fisicoquímica fueron desarrolladas además por Walther Nernst, Pierre Duhem, Gilbert N. Lewis, Jacobus Henricus van 't Hoff, y Théophile de Donder, entre otros, aplicando los métodos matemáticos de Gibbs.
También fueron de importancia para la termodinámica los desarrollos en termometría y manometría.
Leyes de la termodinámica
Principio cero de la termodinámica
Artículo principal: Principio cero de la termodinámica
Este principio o ley cero, establece que existe una determinada propiedad denominada temperatura empírica θ, que es común para todos los estados de equilibrio termodinámico que se encuentren en equilibrio mutuo con uno dado.
En palabras llanas: «Si pones en contacto un objeto con menor temperatura con otro con mayor temperatura, ambos evolucionan hasta que sus temperaturas se igualan».
Tiene una gran importancia experimental «pues permite construir instrumentos que midan la temperatura de un sistema» pero no resulta tan importante en el marco teórico de la termodinámica.
El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir o dar a conocer un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, coordenadas en el plano x, y) no son dependientes del tiempo. El tiempo es un parámetro cinético, asociado a nivel microscópico; el cual a su vez está dentro de la físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un sistema se las conoce como coordenadas térmicas y dinámicas del sistema.
Este principio fundamental, aún siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que recibiese el nombre de principio cero.
Primera ley de la termodinámica
Artículo principal: Primera ley de la termodinámica
También conocida como principio de conservación de la energía para la termodinámica, establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará.
Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica.
Primera ley de la termodinámica
Primera ley de la termodinámica
También conocida como principio de conservación de la energía para la termodinámica, establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará.
Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica.
Segunda ley de la termodinámica
Artículo principal: Segunda ley de la termodinámica
Esta ley marca la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un tipo a otro sin pérdidas. De esta forma, la segunda ley impone restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el primer principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la variación de la entropía siempre debe ser mayor que cero.
Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico.
La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su equivalente en el trabajo mecánico obtenido.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin.
Enunciado de Clausius
Diagrama del ciclo de Carnot en función de la presión y el volumen.
En palabras de Sears es: «No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada».
Enunciado de Kelvin—Planck
Es imposible construir una máquina térmica que, operando en un ciclo, no produzca otro efecto que la absorción de energía desde un depósito, con la realización de una cantidad igual de trabajo. Sería correcto decir que "Es imposible construir una máquina que, operando cíclicamente, produzca como único efecto la extracción de calor de un foco y la realización equivalente de trabajo". Varía con el primero, dado a que en él, se puede deducir que la máquina transforma todo el trabajo en calor, y, que el resto, para otras funciones... Este enunciado afirma la imposibilidad de construir una máquina que convierta todo el calor en trabajo. Siempre es necesario intercambiar calor con un segundo foco (el foco frío), de forma que parte del calor absorbido se expulsa como calor de desecho al ambiente. Ese calor desechado, no pude reutilizarse para aumentar el calor (inicial) producido por el sistema (en este caso la máquina), es a lo que llamamos entropía.
Otra interpretación
Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo, siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.
Tercera ley de la termodinámica
Artículo principal: Tercera ley de la termodinámica
Algunas fuentes se refieren incorrectamente al postulado de Nernst como "la tercera de las leyes de la termodinámica". Es importante reconocer que no es una noción exigida por la termodinámica clásica por lo que resulta inapropiado tratarlo de «ley», siendo incluso inconsistente con la mecánica estadística clásica y necesitando el establecimiento previo de la estadística cuántica para ser valorado adecuadamente. La mayor parte de la termodinámica no requiere la utilización de este postulado.13 El postulado de Nernst, llamado así por ser propuesto por Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero absoluto.
Es importante remarcar que los principios o leyes de la termodinámica son válidas siempre para los sistemas macroscópicos, pero inaplicables a nivel microscópico. La idea del demonio de Maxwell ayuda a comprender los límites de la segunda ley de la termodinámica jugando con las propiedades microscópicas de las partículas que componen un gas.
Sistema
Artículo principal: Sistema termodinámico
Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos:
Un sistema abierto: se da cuando existe un intercambio de masa y de energía con los alrededores; es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor.
Un sistema cerrado: se da cuando no existe un intercambio de masa con el medio circundante, sólo se puede dar un intercambio de energía; un reloj de cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo.
Un sistema aislado: se da cuando no existe el intercambio ni de masa y energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar con él? Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor) salga de él. El universo es un sistema aislado, ya que la variación de energía es cero \Delta E = 0.
Medio externo
Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc.
Jovenes de noveno grado, deben de saber reconocer que las Ciencias Naturales son faciles y fascinantes en su aprendizaje, pero resulta que para poder conocer un poco de Ciencias, es necesario tener conocimientos previos de otras disciplinas como las Matematicas, por diversar razones que no voy a comentar, he encontrado que en Uds. como en el resto de estudiantes de Tercer ciclo tienen serias deficiencias en dicha area, que lo veo reflejado en la asignatura. Pero tome el reto, haga el esfuerzo y supere esta falencia que tiene...
ResponderEliminarEspero que con este trabajo Ud. se vea motivado a poner mas de su parte y hacer su mejor esfuerzo.
Recuerde: El conociemiento es poder!!
Y lo que Ud. aprenda nadie se lo podrá quitar!!