martes, 14 de abril de 2015

150415 Trabajo de recuperación 9° A y B

150415 Trabajo de recuperación  9° A y B
  EL MÉTODO CIENTÍFICO
    Este artículo trata de los diversos métodos científicos utilizados históricamente. Para el uso de la palabra en entornos técnicos actuales ver investigación científica.
El método científico (del griego: -μετά = hacia, a lo largo- -οδός = camino-; y del latín scientia = conocimiento; camino hacia el conocimiento) es un método de investigación usado principalmente en la producción de conocimiento en las ciencias. Para ser llamado científico, un método de investigación debe basarse en la empírica y en la medición, sujeto a los principios específicos de las pruebas de razonamiento.1 Según el Oxford English Dictionary, el método científico es: «un método o procedimiento que ha caracterizado a la ciencia natural desde el siglo XVII, que consiste en la observación sistemática, medición, experimentación, la formulación, análisis y modificación de las hipótesis.
El método científico está sustentado por dos pilares fundamentales. El primero de ellos es la reproducibilidad, es decir, la capacidad de repetir un determinado experimento, en cualquier lugar y por cualquier persona. Este pilar se basa, esencialmente, en la comunicación y publicidad de los resultados obtenidos (por ej. en forma de artículo científico). El segundo pilar es la refutabilidad. Es decir, que toda proposición científica tiene que ser susceptible de ser falsada o refutada (falsacionismo). Esto implica que se podrían diseñar experimentos, que en el caso de dar resultados distintos a los predichos, negarían la hipótesis puesta a prueba. La falsabilidad no es otra cosa que el modus tollendo tollens del método hipotético-deductivo experimental. Según James B. Conant, no existe un método científico. El científico usa métodos definitorios, métodos clasificatorios, métodos estadísticos, métodos hipotético-deductivos, procedimientos de medición, entre otros. Y según esto, referirse a el método científico es referirse a este conjunto de tácticas empleadas para constituir el conocimiento, sujetas al devenir histórico, y que eventualmente podrían ser otras en el futuro.3 Ello nos conduce tratar de sistematizar las distintas ramas dentro del campo del método científico.
Historia
Frente a los límites del azar o la casualidad que en pocas ocasiones dan conocimiento o sabiduría, -ya sea conocimiento científico, del bien o, como indica Aristóteles en la Ética a Nicómaco, del bien máximo que es la felicidad-, Platón y el mismo Aristóteles advertían de la necesidad de seguir un método con un conjunto de reglas o axiomas que debían conducir al fin propuesto de antemano. Sócrates, Platón y Aristóteles, entre otros grandes filósofos griegos, propusieron los primeros métodos de razonamiento filosófico, matemático, lógico y técnico.
Durante la época medieval, serán los filósofos, físicos, matemáticos, astrónomos y médicos del mundo islámico quienes hagan suya, desarrollen y difundan la herencia de la filosofía griega -entre otros Alhazen, Al-Biruni y Avicena-. También se debe reconocer a quienes contribuyeron a la difusión de dichos conocimiento por Europa; figuras como Roberto Grosseteste y Roger Bacon junto con la imprescindible labor de la Escuela de Traductores de Toledo.
Pero no será hasta la edad moderna cuando se consolide una nueva filosofía natural. Descartes (1596-1650) en su obra el Discurso del método define por primera vez unas reglas del método para dirigir bien la razón y buscar la verdad en las ciencias.4 Aún con diferencias notables fueron muchos los que defendieron la necesidad de un método que permitiera la investigación de la verdad.
Desde un punto de vista empírico o científico tal y como ahora lo entendemos se debe mencionar a precursores del método científico como Leonardo da Vinci (1452-1519), Copérnico (1473-1543), Kepler (1571-1630) y Galileo Galilei (1564-1642) quienes aplicaban unas reglas metódicas y sistemáticas para alcanzar la verdad. Galileo Galilei contribuyó a reforzar la idea de separar el conocimiento científico de la autoridad, la tradición y la fe.
Desde la filosofía y la ciencia -entonces el conocimiento todavía era unitario y no estaba fraccionado- debemos mencionar, además de Descartes, a Francis Bacon (1561-1626) quien consolidó el método inductivo dando paso al empirismo, a Pascal (1623-1662), Spinoza (1632-1677), Locke (1632-1704), Malebranche (1638-1715), Newton (1643-1727), David Hume (1711-1776), Kant (1724-1804) y Hegel (1770-1831).
La filosofía reconoce numerosos métodos, entre los que están el método por definición, demostración, dialéctico, trascendental, intuitivo, fenomenológico, semiótico, axiomático, inductivo.5 La filosofía de la ciencia es la que, en conjunto, mejor establece los supuestos ontológicos y metodológicos de las ciencias, señalando su evolución en la historia de la ciencia y los distintos paradigmas dentro de los que se desarrolla.
Tipología
La sistematización de los métodos científicos es una materia compleja y difícil. No existe una única clasificación, ni siquiera a la hora de considerar cuántos métodos distintos existen. A pesar de ello aquí se presenta una clasificación que cuenta con cierto consenso dentro de la comunidad científica. Además es importante saber que ningún método es un camino infalible para el conocimiento, todos constituyen una propuesta racional para llegar a su obtención.
    Método empírico-analítico. Conocimiento de manera lógica autocorrectivo y progresivo. Características de las ciencias naturales y sociales o humanas. Caracteriza a las ciencias descriptivas. Es el método general más utilizado. Se basa en la lógica empírica. Dentro de éste podemos observar varios métodos específicos con técnicas particulares. Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado.
        Método experimental: Algunos lo consideran por su gran desarrollo y relevancia un método independiente del método empírico, considerándose a su vez independiente de la lógica empírica su base, la lógica experimental. Comprende a su vez:
            Método hipotético-deductivo. En el caso de que se considere al método experimental como un método independiente, el método hipotético-deductivo pasaría a ser un método específico dentro del método empírico analítico, e incluso fuera de éste.
        Método de la observación científica: Es el propio de las ciencias descriptivas.
        Método de la medición: A partir del cual surge todo el complejo empírico-estadístico.
    Método hermenéutico: Es el estudio de la coherencia interna de los textos, la Filología, la exégesis de libros sagrados y el estudio de la coherencia de las normas y principios.
    Método dialéctico: La característica esencial del método dialéctico es que considera los fenómenos históricos y sociales en continuo movimiento. Dio origen al materialismo histórico.
    Método fenomenológico. Conocimiento acumulativo y menos autocorrectivo.
    Método histórico. Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica. Para conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia.
    Método sistémico. Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.
    Método sintético. Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.
    Método lógico. Es otra gran rama del método científico, aunque es más clásica y de menor fiabilidad. Su unión con el método empírico dio lugar al método hipotético deductivo, uno de los más fiables hoy en día.
        Método lógico deductivo: Mediante él se aplican los principios descubiertos a casos particulares, a partir de un enlace de juicios. Destaca en su aplicación el método de extrapolación. Se divide en:
            Método deductivo directo de conclusión inmediata: Se obtiene el juicio de una sola premisa, es decir que se llega a una conclusión directa sin intermediarios.
            Método deductivo indirecto o de conclusión mediata: La premisa mayor contiene la proposición universal, la premisa menor contiene la proposición particular, de su comparación resulta la conclusión. Utiliza silogismos.
        Método lógico inductivo: Es el razonamiento que, partiendo de casos particulares, se eleva a conocimientos generales. Destaca en su aplicación el método de interpolación. Se divide en:
            Método inductivo de inducción completa: La conclusión es sacada del estudio de todos los elementos que forman el objeto de investigación, es decir que solo es posible si conocemos con exactitud el número de elementos que forman el objeto de estudio y además, cuando sabemos que el conocimiento generalizado pertenece a cada uno de los elementos del objeto de investigación.
            Método inductivo de inducción incompleta: Los elementos del objeto de investigación no pueden ser numerados y estudiados en su totalidad, obligando al sujeto de investigación a recurrir a tomar una muestra representativa, que permita hacer generalizaciones. Éste a su vez comprende:
                Método de inducción por simple enumeración o conclusión probable. Es un método utilizado en objetos de investigación cuyos elementos son muy grandes o infinitos. Se infiere una conclusión universal observando que un mismo carácter se repite en una serie de elementos homogéneos, pertenecientes al objeto de investigación, sin que se presente ningún caso que entre en contradicción o niegue el carácter común observado. La mayor o menor probabilidad en la aplicación del método, radica en el número de casos que se analicen, por tanto sus conclusiones no pueden ser tomadas como demostraciones de algo, sino como posibilidades de veracidad. Basta con que aparezca un solo caso que niegue la conclusión para que esta sea refutada como falsa.
                Método de inducción científica. Se estudian los caracteres y/o conexiones necesarios del objeto de investigación, relaciones de causalidad, entre otros. Guarda enorme relación con el método empírico.
        Método analógico: Consiste en inferir de la semejanza de algunas características entre dos objetos, la probabilidad de que las características restantes sean también semejantes. Los razonamientos analógicos no son siempre válidos.
Descripción
Por proceso o "método científico" se entiende aquellas prácticas utilizadas y ratificadas por la comunidad científica como válidas a la hora de proceder con el fin de exponer y confirmar sus teorías. Las teorías científicas, destinadas a explicar de alguna manera los fenómenos que observamos, pueden apoyarse o no en experimentos que certifiquen su validez. Sin embargo, hay que dejar claro que el mero uso de metodologías experimentales, no es necesariamente sinónimo del uso del método científico, o su realización al 100%. Por ello, Francis Bacon definió el método científico de la siguiente manera:

Observación: Es aplicar atentamente los sentidos a un objeto o a un fenómeno, para estudiarlos tal como se presentan en realidad, puede ser ocasional o causalmente.
Inducción: La acción y efecto de extraer, a partir de determinadas observaciones o experiencias particulares, el principio particular de cada una de ellas.
    Hipótesis: Consiste en elaborar una explicación provisional de los hechos observados y de sus posibles causas.
    Probar la hipótesis por experimentación.
    Demostración o refutación (antítesis) de la hipótesis.
    Tesis o teoría científica.
Así queda definido el método científico tal y como es normalmente entendido, es decir, la representación social dominante del mismo. Esta definición se corresponde sin embargo únicamente a la visión de la ciencia denominada positivismo en su versión más primitiva. Empero, es evidente que la exigencia de la experimentación es imposible de aplicar a áreas de conocimiento como la astronomía, la física teórica, etcétera. En tales casos, es suficiente la observación de los fenómenos producidos naturalmente, en los que el método científico se utiliza en el estudio (directos o indirectos) a partir de modelos más pequeños, o a partes de éste.
Por otra parte, existen ciencias no incluidas en las ciencias naturales, especialmente en el caso de las ciencias humanas y sociales, donde los fenómenos no sólo no se pueden repetir controlada y artificialmente (que es en lo que consiste un experimento), sino que son, por su esencia, irrepetibles, por ejemplo la historia. De forma que el concepto de método científico ha de ser repensado, acercándose más a una definición como la siguiente:
    proceso de conocimiento caracterizado por el uso constante e irrestricto de la capacidad crítica de la razón, que busca establecer la explicación de un fenómeno ateniéndose a lo previamente conocido, resultando una explicación plenamente congruente con los datos de la observación.
Así, por método o proceso científico se entiende aquellas prácticas utilizadas y ratificadas por la comunidad científica como válidas a la hora de proceder con el fin de exponer y confirmar sus teorías, como por ejemplo los Postulados de Koch para la microbiología. Las teorías científicas, destinadas a explicar de alguna manera los fenómenos que observamos, pueden apoyarse o no en experimentos que certifiquen su validez.
El método científico como método para la eliminación de falacias y prejuicios
El método científico envuelve la observación de fenómenos naturales y luego, la postulación de hipótesis y su comprobación mediante la experimentación. Pues bien, los prejuicios cognitivos no son más que hipótesis, inducciones o construcciones mentales que han sido sesgadas positiva o negativamente por el cerebro. Asimismo cuando se realizan afirmaciones o se argumenta y estos prejuicios cognitivos salen a la luz se convierten en falacias. El prejuicio cognitivo o proceso mental con el que se sesgan las creencias no se puede eliminar pues es un aspecto fisiológico intrínseco a la psique del ser humano y que además parece estar extendido evolutivamente ya que cumple su función en la asociación y reconocimiento de objetos cotidianos, véase por ejemplo pareidolia. Lo que es posible es compensar el sesgo o modificar las propias creencias mediante el método científico como mecanismo para descartar hipótesis que son falsas. De esta forma, el sesgo se situaría en dirección a hipótesis que son menos falsas hasta nuevas revisiones en busca de factores desconocidos o nueva información.
La ciencia no pretende ser ni absoluta, ni autoritaria, ni dogmática. Todas las ideas, hipótesis, teorías; todo el conocimiento científico está sujeto a revisión, a estudio y a modificación. El conocimiento que tenemos representa las hipótesis científicas y teorías respaldadas por observaciones y experimentos (método empírico).
Para no caer en el prejuicio cognitivo es necesario, por tanto, la experimentación, el no hacerlo llevaría a la misma negligencia puesto que la verdad de una aseveración según el método científico recae en la fuerza de sus evidencias comprobadas por experimentación. Después de llevar a cabo la experimentación se analizan los resultados y se llega a una conclusión. Si los resultados respaldan la hipótesis, ésta adquiere validez; si los resultados la refutan, ésta se descarta o se modifica presentando nuevas formas para refutarla.
El método científico es también afectado naturalmente por los prejuicios cognitivos ya que los efectos asociativos de nuestra mente son los que permiten, al mismo tiempo, lanzar el mayor número de hipótesis. Sin embargo, el método, si es bien ejecutado en sus últimos y más importantes pasos, permite desecharlas.
El primer paso en el método científico de tipo empírico es la observación cuidadosa de un fenómeno y la descripción de los hechos, es aquí donde entran en juego los prejuicios. Después, el científico trata de explicarlo mediante hipótesis las cuales, ya están sesgadas por los prejuicios en la percepción de los acontecimientos o en las propias creencias. Sin embargo, solamente las ideas que puedan comprobarse experimentalmente están dentro del ámbito de la ciencia lo que permite desechar muchas teorías. Si las hipótesis enunciadas fueran invalidades deberían predecir las consecuencias en el experimento y además debería ser posible repetirlas. De esta forma, mediante la experimentación, la repetición y supervisión del experimento por parte de personas que pudieran tener otros sesgos cognitivos se minimizan los errores del experimento, los errores en la interpretación de los resultados o errores en estadísticas que harían a la teoría una falsa o imprecisa creencia. Por eso, en ciencia se usa la revisión por pares, a mayor número de revisiones menor probabilidad de sesgo o de falsa interpretación de los datos experimentales, con lo que el trabajo es considerado más riguroso o estable. Un proceso así aunque mucho menos riguroso se puede observar en el pensamiento crítico cuando éste requiere de investigación activa propia para el esclarecimiento de argumentos y comprobación de las fuentes de información. En el pensamiento crítico se toman decisiones en función de la carga de la prueba que se hayan realizado sobre las fuentes y los argumentos y la información que se obtiene puede llegar a ser indirecta (de ahí la falta de rigurosidad). En el método científico no solo debe ser el hecho probado por la experimentación directa sino que debe ser posible repetirlo.
El método empírico es un gran avance pues permite aproximarse a la verdad. Es un gran hito que ha permitido avanzar a la sociedad y debe ser dado a conocer ampliamente para extender su uso en otras disciplinas, sin embargo, el método sigue siendo un método que está restringido a la capacidad del evaluador. Esto quiere decir, que no solo los sesgos o la cultura influyen en el método sino que también éste está limitado por la capacidad misma de la especie humana. Es el ser humano el que no solo propone las ideas sino que decide cómo verificarlas. ¿Qué ocurriría si el ser humano no fuera capaz de ver más allá de su inteligencia para saber la verdad?.6 La idea de que existe una limitación de la especie limita la misma aplicación del método. Para evitar esto, tal y como la evolución generó desde el mismo caos no inteligente seres tan complejos como los humanos, la combinación aleatoria de elementos de experimentación junto a la paralelización de la experimentación y unas reglas energéticas claras, deberían realizar descubrimientos aleatorios en largos periodos de tiempo. La combinación de estos dos métodos el evolutivo-aleatorio junto con el método científico empírico podrían producir avances más importantes por no estar constreñidos al marco cultural actual. De hecho mucho de los avances científicos se han producido por casualidad, error y suerte y no por deducción consciente.
El problema con los prejuicios cognitivos es que normalmente se aplican a conceptos que cambian con regularidad quizás a una velocidad mayor de lo que es posible medirlo mediante pruebas o experimentación, además no son uniformes y poseen excepciones, estos prejuicios se basan por tanto en probabilidades y no en afirmaciones certeras. El método científico por lo menos permite ponderar estas probabilidades, realizar estadísticas y revisar la propia seguridad en las afirmaciones. De esta forma debería eliminar la posición de certeza o del perfecto conocimiento del funcionamiento del mundo (otro sesgo extendido). El método científico, por tanto, se convierte en el método maestro para probar hipótesis y desechar las falsas. A esto se refería Einstein cuando dijo "No existe una cantidad suficiente de experimentos que muestren que estoy en lo correcto; pero un simple experimento puede probar que me equivoco". De otra forma, sin el método científico, las presunciones o prejuicios quedarían fijas cuando las circunstancias cambian, sujetas a nuestras propias interpretaciones de la realidad.







Modelo clásico
El modelo clásico de investigación científica deriva del trabajo de Aristóteles,7 quien distinguió las formas del razonamiento aproximado y el exacto, estableció el esquema de tres puntos de los razonamientos abductivo, deductivo e inductivo, y también trató las formas compuestas tales como el razonamiento por analogía.



Modelo pragmático
En 1877,8 Charles Sanders Peirce caracterizó la investigación en general no como la persecución de la verdad per se, sino como el esfuerzo para desplazarse de las irritantes e inhibitorias dudas, nacidas de las sorpresas, desacuerdos y demás, y así alcanzar una creencia segura, creencia en la cual uno está preparado para actuar. Enmarcó la investigación científica como parte de un espectro mayor e incitado por la misma duda, no por meras dudas verbales o hiperbólicas, las cuales sostenía que eran infructuosas.9 Delineó cuatro métodos para establecer opiniones, ordenadas de la menos a la más exitosa:
    El método de la tenacidad (política de no apartarse de la crencia inicial) – la cual trae consuelo y firmeza pero guía a intentar ignorar la información contraria y otros puntos de vista como si la verdad fuera intrínsecamente privada y no pública. Va contra el impulso social y los dubitativos ya que uno puede darse cuenta cuando la opinión ajena es igual de buena que la propia. Sus éxitos pueden ser brillantes pero tienden a ser transitorios.
    El método de la autoridad - se sobrepone a los desacuerdos, pero a veces con cierta brutalidad. Sus éxitos pueden ser majestuosos y duraderos, pero no puede funcionar plenamente como para suprimir las dudas indefinidamente, en especial cuando la gente aprende de sociedades presentes y pasadas.
    El método del a priori – que promueve la conformidad con menor brutalidad pero fomenta que las opiniones sean como los gustos, surgiendo en conversaciones y comparaciones de perspectivas en términos de lo que es "aceptable por la razón." Por tanto depende de las modas, y es cíclico con el tiempo. Es más intelectual y respetable pero, como en los primeros dos métodos, sostiene creencias caprichosas y accidentales, haciendo que algunas mentes entren en duda.
    El método científico – el método en el que la investigación se tiene a sí misma como falible, y por ello se prueba, se critica, se corrige y se mejora así misma.
Comunicación y comunidad
Con frecuencia, el método científico es empleado no sólo por una persona, sino por varios individuos que cooperan entre ellos de manera directa o indirecta. Dicha cooperación puede ser vista como uno de los elementos que definen una comunidad científica. Se han desarrollado varias técnicas para asegurar la integridad de la metodología científica dentro de estos ambientes.
Evaluación por revisión por pares
Las revistas científicas usan un proceso de revisión por pares, por el cual se envían los manuscritos de los científicos a un número indeterminado (normalmente de uno a tres) de científicos de la misma rama, casi siempre dentro del anonimato, para que realicen una evaluación del trabajo. Estos árbitros pueden o no recomendar la publicación, la publicación con ciertas modificaciones o, en ocasiones, la publicación en otra revista. Esto sirve para mantener la literatura científica libre de trabajos pseudocientíficos o acientíficos, para ayudar en evitar errores obvios, y en general mejorar la calidad del material. El proceso de revisión por pares puede tener ciertas limitaciones cuando se considera la investigación fuera del paradigma científico convencional: los problemas de pensamiento de grupo pueden interferir con una deliberación abierta y justa de algunas nuevas investigaciones.
Documentación y replicación
A veces, los experimentadores pueden cometer errores sistemáticos durante sus investigaciones, desviándose inconscientemente del método científico y cayendo en la ciencia patológica por varios motivos o, en raras ocasiones, informar conscientemente de falsos resultados. En consecuencia, es una práctica común para otros científicos el intentar repetir los experimentos con la intención de duplicar los resultados, verificando así la hipótesis.
Archivo
Como resultado, a los investigadores se les supone la práctica del archivo de datos científicos, cumpliendo así con las políticas de las revistas científicas y las agencias gubernamentales de subvención. El registro detallado de sus procedimientos experimentales, datos en bruto, análisis estadísticos y códigos fuente se conserva con la intención de suministrar pruebas de la efectividad e integridad del procedimiento y asistir en la reproducción. Estos registros de los procedimientos también pueden ayudar en la concepción de nuevos experimentos para comprobar las hipótesis, y pueden resultar útiles a los ingenieros que podrían examinar las aplicaciones prácticas en potencia de un descubrimiento cualquiera.
Intercambio de datos
Cuando se requiere información adicional antes de que un estudio pueda ser reproducido, se espera que el autor del estudio lo proporcione con puntualidad. Si dicho autor se niega a intercambiar sus datos, se puede reclamar a los editores de las publicaciones que hicieron públicos los estudios o a las instituciones que subvencionaron la investigación.
Limitaciones
Dado que resulta imposible para un científico registrarlo absolutamente todo lo que ocurre en un experimento, sólo se informa de los hechos que pueden ser subjetivamente relevantes. Esto puede llevar, inevitablemente, a posteriores problemas si se cuestiona algo supuestamente irrelevante. Por ejemplo, Heinrich Hertz no informó del tamaño de la habitación que se usó para comprobar las ecuaciones de Maxwell, que posteriormente acabaron produciendo una ligera desviación en los resultados. El problema es que partes de la propia teoría tienen que ser asumidas para poder seleccionar e informar de las condiciones del experimento. Las observaciones, por tanto, son a veces tildadas de estar "cargadas de teoría".
Dimensiones de la práctica
Las principales restricciones a la ciencia contemporánea son:

    Publicación, por ejemplo la revisión por pares
    Recursos, principalmente económicos

A pesar de esto, las condiciones no han sido siempre iguales: en los viejos días de los "gentleman scientist", que subvencionaban y publicaban los trabajos, las restricciones eran mucho menos severas.
Ambas limitaciones requieren de manera indirecta del método científico, ya que los trabajos que violan estas restricciones serán difíciles de publicar y difíciles de financiar. Las revistas requieren que los trabajos presentados hayan seguido una buena práctica científica, y esto se comprueba principalmente por la revisión por pares. Originalmente, la importancia y el interés eran más importantes, como el ejemplo de las directrices de autor de la revista Nature.
Filosofía y sociología de la ciencia
La filosofía mira directamente a los apoyos lógicos del método científico, lo que separa a la ciencia de la no-ciencia y a la ética de la investigación que se supone implícita a la ciencia. Existen varias suposiciones básicas, derivadas de la filosofía por al menos un científico de renombre, que forman la base del método científico, como puede ser que la realidad sea objetiva y consistente, que los humanos tengan la capacidad de percibir la realidad con precisión, y que existen explicaciones racionales para cualquier elemento del mundo real.11 Estas suposiciones del naturalismo metodológico forman una base sobre la que se puede asentar la ciencia. El positivismo lógico, empirismo, falsabilidad, y otras teorías han criticado estas suposiciones y han dado visiones alternativas de la lógica de la ciencia, pero todas ellas también han sido, por otra parte, criticadas.

Thomas Kuhn examinó la historia de la ciencia en su La estructura de las revoluciones científicas, y encontró que el método utilizado por los científicos se diferenciaban con importancia del método utilizado con anterioridad. Sus observaciones de la práctica científica eran principalmente sociológicas y no hablan sobre como la ciencia puede ser practicada en otros tiempos o por otras culturas.
Norwood Russell Hanson, Imre Lakatos y Thomas Kuhn han trabajado en profundidad en el característico "cargado de teoría" de la observación. Hanson acuñó la idea de que toda la observación es dependiente del marco conceptual del observador, usando el concepto de psicología de la Gestalt para mostrar como las preconcepciones pueden afectar tanto a la observación como a la descripción.12 Comienza su primer capítulo con una discusión sobre el aparato de Golgi y su rechazo inicial como artefacto para teñir, y una discusión entre Brahe y Kepler observando el amanecer, que ven salir al sol de manera diferente a pesar de ser el mismo fenómeno fisiológico. Kuhn13 y Feyerabend14 reconocen ser los pioneros en encontrar la importancia de este trabajo.
Kuhn dijo en 1961 que el científico tiene una teoría en su mente antes de diseñar y llevar a cabo los experimentos que le llevarán a las observaciones empíricas, y que el camino de la teoría a la medición casi nunca puede ser hecho al revés. Esto implica que la manera en que la teoría es comprobada está dictada por la naturaleza de la misma teoría, lo que llevó al autor a argumentar que "una vez ha sido adoptada por una profesión, no se reconoce que ninguna teoría sea comprobable a través de ningún examen cuantitativo que no haya superado ya".15
Paul Feyerabend examinó de manera similar la historia de la ciencia, lo que le llevó a negar que la ciencia sea un proceso genuinamente metodológico. En su libro Contra el método argumenta que el progreso científico no es el resultado de aplicar ningún método concreto. Básicamente, dice que para cualquier método específico o norma de la ciencia, uno puede encontrar un episodio histórico en el que violarlo ha contribuido al progreso científico. Por tanto, si los que creen en el método científico desean expresar una simple regla universalmente válida, Feyerabend sugiere en broma que cualquier cosa vale.16 Esta clase de críticas han llevado a un programa fuerte, un acercamiento radical a la sociología de la ciencia.
Las críticas posmodernistas a la ciencia han sido sujeto de intensas controversias. Este debate que a día de hoy sigue activo, conocido como las guerras de la ciencia, es el resultado de aplicar valores conflictivos y suposiciones entre el posmodernismo y el realismo científico. Mientras que los posmodernistas afirman que el conocimiento científico no es más que otro discurso (darse cuenta del significado especial de este término en el contexto) y que no es representativo de ninguna forma de verdad fundamental, los realistas en la comunidad científica mantienen que el conocimiento científico revela verdades reales y fundamentales de la realidad. Se han escrito muchos libros por científicos que han tomado este problema y han desafiado las afirmaciones de los posmodernistas mientras defienden a la ciencia como un método legítimo de derivar la verdad.

Rol en las posibilidades del descubrimiento
En algún punto entre el 33 % y el 50 % de todos los descubrimientos científicos se encuentra la tasa de descubrimiento científicos que, en lugar de haber sido encontrados, fueron hallados por casualidad. Esto puede explicar el por qué con frecuencia los científicos dicen que tuvieron suerte.18 A Louis Pasteur se le acredita la famosa frase: "La suerte está a favor de la mente preparada", pero algunos psicólogos han empezado a estudiar lo que significa "estar preparado para la suerte" en un contexto científico. La investigación está mostrando que a los científicos se les enseñan varias heurísticas que tienden a aprovechar la oportunidad y lo inesperado.18 19 Esto es lo que Nassim Nicholas Taleb llama la "antifragilidad"; mientras que algunos sistemas de investigación son frágiles delante del error humano, las preferencias humanas y el azar, el método científico es más duro y resistente; de tal manera se beneficia de esa aleatoriedad de diferentes formas, ya que es antifrágil. Taleb cree que cuanto más antifrágil sea el sistema, más resultados dará en el mundo real.20
El psicólogo Kevin Dunbar dice que el proceso del descubrimiento a menudo comienza con un grupo de investigadores encontrando fallos en sus experimentos. Estos resultados inesperados llevan a los investigadores a intentar arreglar lo que piensan que puede ser el error en sus métodos. Llegado un punto, el investigador decide que el error es demasiado persistente y sistemático como para ser una coincidencia. Los aspectos altamente controlados, curiosos y cautelosos del método científico son por tanto lo que lo hacen adecuado para identificar dichos errores persistentes. En este momento, el investigador empezará a pensar diversas explicaciones teóricas de dicho fallo, frecuentemente buscando la ayuda de colegas pertenecientes a diferentes dominios de la experiencia.
Relación  con las matemáticas
La ciencia es el proceso de recopilar, comparar y evaluar modelos propuestos con lo observable. Un modelo puede ser una simulación, una fórmula matemática o química, o una serie de pasos propuestos de antemano. La ciencia es como las matemáticas en el sentido de que los investigadores de ambas disciplinas pueden distinguir con claridad lo que es conocido de lo que es desconocido en cada etapa del descubrimiento. Los modelos, tanto científicos como matemáticos, necesitan ser internamente consistentes, al igual que también deben ser refutables. En las matemáticas, una afirmación no debe ser demostrada en el mismo momento; ya que en esa etapa una afirmación todavía sería llamada una conjetura. Sin embargo, cuando dicha afirmación ha adquirido una demostración matemática, ésta gana una especie de inmortalidad que es altamente apreciada por los matemáticos, y por la cual algunos matemáticos dedican sus vidas.21
El trabajo matemático y el científico se pueden inspirar el uno al otro.22 Por ejemplo, el concepto técnico del tiempo surgió de la ciencia, y la intemporabilidad fue un distintivo tema de las matemáticas. Pero al día de hoy, la conjetura de Poincaré ha sido demostrada usando el tiempo como un concepto matemático en el que los objetos pueden fluir (ver el Flujo de Ricci).

Aún así, la conexión entre las matemáticas y la realidad (al igual que la ciencia hasta el punto en el que describe la realidad) permanece en la oscuridad. El trabajo de Eugene Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences, es un conocido acercamiento al problema de este físico ganador de un Premio Nobel. De hecho, algunos observadores, tales como Gregory Chaitin y George Lakoff, han sugerido que las matemáticas son el resultado de las limitaciones humanas (incluyendo las culturales) con las inclinaciones del practicante, algo así como una visión de la ciencia de corte pos-modernista.
El trabajo de George Pólya sobre la resolución de problemas,23 la construcción de pruebas matemáticas y la heurística24 25 demuestran que el método matemático y el científico difieren en detalles, que de todas formas hacen parecerse entre ellos al usar unos pasos iterativos y repetitivos.
    Método matemático     Método científico
1     Comprensión     Caracterización por la experiencia y la observación
2     Análisis     Desarrollo de hipótesis
3     Síntesis     Predicción de hipótesis
4     Revisión - Generalización     Experimentación
Según el punto de vista de Pólya, comprender incluye reformular las definiciones que resultan poco familiares con las propias palabras de uno, recurriendo a figuras geométricas, y cuestionando lo que sabemos y no sabemos todavía; análisis, el cual Pólya toma de Pappus de Alejandría,26 incluye una construcción libre y heurística de argumentos plausibles, trabajando hacia atrás desde el objetivo, y divisando un plan para construir una prueba; síntesis es la exposición estrictamente euclídea de los detalles paso a paso27 de la prueba; revisión incluye la reconsideración y la reexaminación del resultado y del camino que ha llevado hasta él.
Gauss, cuando fue preguntado sobre como llegó hasta sus teoremas, contestó en una ocasión "durch planmässiges Tattonieren" (a través de la experimentación sistemática palpable).28
Imre Lakatos discutió que los matemáticos hacen uso de la contradicción, la crítica y la revisión como principios para mejorar su trabajo.29 De igual manera que la ciencia, donde se busca la verdad, pero no se encuentra la certeza, en Pruebas y refutaciones (1976), en el cual Lakatos intentó establecer que no existe el teorema de las matemáticas informales que sea final ni perfecto. Esto significa que no debemos pensar que un teorema sea definitivamente cierto, sólo que, por ahora, no se ha encontrado un contraejemplo. Una vez se encuentre dicho contraejemplo, como una entidad que se contradiga por el teorema, se ajusta el teorema, posiblemente extendiendo el dominio de su validez. Esta es una manera de acumular nuestro conocimiento, a través de la lógica y el proceso de demostraciones y refutaciones. (Si se dan axiomas para una sola rama de las matemáticas, Lakatos afirmó que las demostraciones de dichos axiomas son tautológicas; por ejemplo, la verdad lógica, fue reescrita, tal como hizo Poincaré [Pruebas y refutaciones, 1976].)

Lakatos propuso una cuenta de conocimiento matemático basado en la idea de Polya de la heurística. En Pruebas y refutraciones, Lakatos dio varias reglas básicas para encontrar pruebas y contraejemplos a las conjeturas. Pensaba que los experimentos pensados para las matemáticas eran una vía válida para descubrir conjeturas y pruebas matemáticas
 El  Calor
El sol suele dar una sensación de calor.
Esquema de la transferencia de calor por conducción.
El calor se define como la transferencia de energía térmica que se da entre diferentes cuerpos o diferentes zonas de un mismo cuerpo que se encuentran a distintas temperaturas, sin embargo en termodinámica generalmente el término calor significa transferencia de energía. Este flujo de energía siempre ocurre desde el cuerpo de mayor temperatura hacia el cuerpo de menor temperatura, ocurriendo la transferencia hasta que ambos cuerpos se encuentren en equilibrio térmico (ejemplo: una bebida fría dejada en una habitación se entibia).
La energía calórica o térmica puede ser transferida por diferentes mecanismos de transferencia, estos son la radiación, la conducción y la convección, aunque en la mayoría de los procesos reales todos se encuentran presentes en mayor o menor grado. Cabe resaltar que los cuerpos no tienen calor, sino energía térmica. La energía existe en varias formas. En este caso nos enfocamos en el calor, que es el proceso mediante el cual la energía se puede transferir de un sistema a otro como resultado de la diferencia de temperatura.
Hasta el siglo XIX se explicaba el efecto del ambiente en la variación de la temperatura de un cuerpo por medio de un fluido invisible llamado calórico. Este se producía cuando algo se quemaba y, además, que podía pasar de un cuerpo a otro. La teoría del calórico afirmaba que una sustancia con mayor temperatura que otra, necesariamente, poseía mayor cantidad de calórico.
Benjamin Thompson y James Prescott Joule establecieron que el trabajo podía convertirse en calor o en un incremento de la energía térmica determinando que, simplemente, era otra forma de la energía.
Calor específico
El calor específico es la energía necesaria para elevar 1 °C la temperatura de un gramo de materia. El concepto de capacidad calorífica es análogo al anterior pero para una masa de un mol de sustancia (en este caso es necesario conocer la estructura química de la misma).

El calor específico es un parámetro que depende del material y relaciona el calor que se proporciona a una masa determinada de una sustancia con el incremento de temperatura-
Las unidades más habituales de calor específico son J / (kg • K) y cal / (g • °C).
El calor específico de un material depende de su temperatura; no obstante, en muchos procesos termodinámicos su variación es tan pequeña que puede considerarse que el calor específico es constante. Asimismo, también se diferencia del proceso que se lleve a cabo, distinguiéndose especialmente el "calor específico a presión constante" (en un proceso isobárico) y "calor específico a volumen constante (en un proceso isocórico).
Calor específico molar

El calor específico de una sustancia está relacionado su constitución molecular interna, y a menudo da información valiosa de los detalles de su ordenación molecular y de las fuerzas intermoleculares. A altas temperaturas la mayoría de sólidos tienen capacidades caloríficas En este sentido, con frecuencia es muy útil hablar de calor específico molar denotado por cm, y definido como la cantidad de energía necesaria para elevar la temperatura de un mol de una sustancia en 1 grado .
Cambios de fase.
En la naturaleza existen tres estados usuales de la materia: sólido, líquido y gaseoso. Al aplicarle calor a una sustancia, ésta puede cambiar de un estado a otro. A estos procesos se les conoce como cambios de fase. Los posibles cambios de fase son:

        de estado sólido a líquido, llamado fusión,
        de estado líquido a sólido, llamado solidificación,
        de estado líquido a gaseoso, llamado evaporación o vaporización,
        de estado gaseoso a líquido, llamado condensación,
        de estado sólido a gaseoso, llamado sublimación progresiva,
        de estado gaseoso a sólido, llamado sublimación regresiva o deposición,
        de estado gaseoso a plasma, llamado ionización.
        de estado plasma a gaseoso, llamado Desionización
Calor latente
Artículo principal: Calor latente

Un cuerpo sólido puede estar en equilibrio térmico con un líquido o un gas a cualquier temperatura, o que un líquido y un gas pueden estar en equilibrio térmico entre sí, en una amplia gama de temperaturas, ya que se trata de sustancias diferentes. Pero lo que es menos evidente es que dos fases o estados de agregación, distintas de una misma sustancia, puedan estar en equilibrio térmico entre sí en circunstancias apropiadas.

Un sistema que consiste en formas sólida y líquida de determinada sustancia, a una presión constante dada, puede estar en equilibrio térmico, pero únicamente a una temperatura llamada punto de fusión simbolizado a veces como t_{\mathrm f}. A esta temperatura, se necesita cierta cantidad de calor para poder fundir cierta cantidad del material sólido, pero sin que haya un cambio significativo en su temperatura. A esta cantidad de energía se le llama calor de fusión, calor latente de fusión o entalpía de fusión, y varía según las diferentes sustancias. Se denota por L_{\mathrm f}.

El calor de fusión representa la energía necesaria para deshacer la fase sólida que está estrechamente unida y convertirla en líquido. Para convertir líquido en sólido se necesita la misma cantidad de energía, por ello el calor de fusión representa la energía necesaria para cambiar del estado sólido a líquido, y también para pasar del estado líquido a sólido.

El calor de fusión se mide en cal / g.

De manera similar, un líquido y un vapor de una misma sustancia pueden estar en equilibrio térmico a una temperatura llamada punto de ebullición simbolizado por t_{\mathrm e}. El calor necesario para evaporar una sustancia en estado líquido ( o condensar una sustancia en estado de vapor ) se llama calor de ebullición o calor latente de ebullición o entalpía de ebullición, y se mide en las mismas unidades que el calor latente de fusión. Se denota por L_{\mathrm e}.
Transmisión de calor.
El calor puede ser transmitido de tres formas distintas: por conducción, por convección o por radiación.

    Conducción térmica: es el proceso que se produce por contacto térmico entre dos ó más cuerpos, debido al contacto directo entre las partículas individuales de los cuerpos que están a diferentes temperaturas, lo que produce que las partículas lleguen al equilibrio térmico. Ej: cuchara metálica en la taza de té.
    Convección térmica: sólo se produce en fluidos (líquidos o gases), ya que implica movimiento de volúmenes de fluido de regiones que están a una temperatura, a regiones que están a otra temperatura. El transporte de calor está inseparablemente ligado al movimiento del propio medio. Ej.: los calefactores dentro de la casa.
    Radiación térmica: es el proceso por el cual se transmite a través de ondas electromagnéticas. Implica doble transformación de la energía para llegar al cuerpo al que se va a propagar: primero de energía térmica a radiante y luego viceversa. Ej.: La energía solar.
La conducción pura se presenta sólo en materiales sólidos. La convección siempre está acompañada de la conducción, debido al contacto directo entre partículas de distinta temperatura en un líquido o gas en movimiento. En el caso de la conducción, la temperatura de calentamiento depende del tipo de material, de la sección del cuerpo y del largo del cuerpo. Esto explica por qué algunos cuerpos se calientan más rápido que otros a pesar de tener exactamente la misma forma, y que se les entregue la misma cantidad de calor.
Medida experimental del calor
Para determinar, de manera directa, el calor que se pone de manifiesto en un proceso de laboratorio, se suele emplear un calorímetro. En esencia, se trata de un recipiente que contiene el líquido en el que se va a estudiar la variación de energía por transferencia de calor y cuyas paredes y tapa (supuestamente adiabáticas) deben aislarlo, al máximo, del exterior.

Un termo de paredes dobles de vidrio, cuyas superficies han sido previamente metalizadas por deposición y que presenta un espacio vacío entre ellas es, en principio, un calorímetro aceptable para una medida aproximada de la transferencia de calor que se manifiesta en una transformación tan sencilla como esta. El termo se llama vaso Dewar y lleva el nombre del físico y químico escocés James Dewar, pionero en el estudio de las bajas temperaturas. En la tapa aislante suele haber un par de orificios para introducir un termómetro con el que se evaluaría el incremento (o decremento) de la temperatura interior del líquido, y un agitador para tratar de alcanzar el equilibrio térmico en su interior lo más rápido posible, usando un sencillo mecanismo de convección forzada.

No sólo el líquido contenido en el calorímetro absorbe calor, también lo absorben las paredes del calorímetro. Lo mismo sucede cuando pierde calor. Esta intervención del calorímetro en el proceso se representa por su equivalente en agua. La presencia de esas paredes, no ideales, equivale a añadir al líquido que contiene, los gramos de agua que asignamos a la influencia del calorímetro y que llamamos "equivalente en agua". El "equivalente en agua" viene a ser "la cantidad de agua que absorbe o desprende el mismo calor que el calorímetro".
Unidades de medida

La unidad de medida del calor en el Sistema Internacional de Unidades es la misma que la de la energía y el trabajo: el Joule.

Otra unidad ampliamente utilizada para medir la cantidad de energía térmica intercambiada es la caloría (cal), que es la cantidad de energía que hay que suministrar a un gramo de agua para elevar su temperatura 1 °C. Diferentes condiciones iniciales dan lugar a diferentes valores para la caloría. La caloría también es conocida como caloría pequeña, en comparación con la kilocaloría (kcal), que se conoce como caloría grande y es utilizada en nutrición.
1 kcal = 1000 cal

Joule, tras múltiples experimentaciones en las que el movimiento de unas palas, impulsadas por un juego de pesas, se movían en el interior de un recipiente con agua, estableció el equivalente mecánico del calor, determinando el incremento de temperatura que se producía en el fluido como consecuencia de los rozamientos producidos por la agitación de las palas:
1 cal = 4,184 J1
El BTU (unidad térmica británica), es una medida para el calor muy usada en Estados Unidos de América y en muchos otros países de América. Se define como la cantidad de calor que se debe agregar a una libra de agua para aumentar su temperatura en un grado Fahrenheit' y equivale a 252 calorías.
Termodinámica y transferencia de calor
La termodinámica se interesa en la cantidad de transferencia de calor a medida que un sistema pasa por un proceso, sin indicar cuánto tiempo transcurrirá. Un estudio termodinámico sencillamente nos dice cuánto calor debe transferirse para que se realice un cambio de estado específico, con el fin de cumplir con el principio de conservación de la energía. En la experiencia nos enfocamos más en la velocidad de la transferencia de calor que en la cantidad transferida. La termodinámica trata de los estados en equilibrio y de los cambios que ocurren entre un estado de equilibrio y otro. Por otra parte, la transferencia de calor se ocupa de los sistemas en los que se presenta desequilibrio térmico y, por tanto, existe una condición de no equilibrio. En consecuencia, el estudio de la transferencia de calor no puede basarse sólo en los principios de la termodinámica; sin embargo, existen leyes de la termodinámica que constituyen la base científica de la transferencia de calor.

La primera ley de la termodinámica establece que la velocidad de transferencia de energía hacia un sistema es igual a la velocidad de incremento de la energía de dicho sistema. Su segunda ley, establece que el calor se transfiere en dirección de la temperatura decreciente. El requisito básico para la transferencia de calor es la presencia de una diferencia de temperatura. No existe la más mínima posibilidad de que se dé transferencia neta de calor entre dos medios que están a la misma temperatura, esta diferencia de temperaturas constituye la condición básica necesaria para que se dé transferencia de calor.

Anteriormente mencionamos que el análisis termodinámico no se ocupa de la velocidad de la transferencia de calor en cierta dirección pero, ahora, podemos decir que este parámetro depende de la magnitud del gradiente de temperatura (o diferencia de temperatura por unidad de longitud, o la razón o relación de cambio de la temperatura en esa dirección). A mayor gradiente de temperatura, mayor es la velocidad de transferencia de calor.
Áreas de aplicación de la transferencia de calor

Es común encontrar la transmisión de calor en los sistemas de ingeniería y otros aspectos de la vida; y no es necesario ir muy lejos para ver algunas de sus áreas de aplicación. Es más, uno de los ejemplos más sencillos lo encontramos dentro del cuerpo humano, éste permanece emitiendo calor en forma constante hacia sus alrededores y la comunidad humana está íntimamente influenciada por la velocidad de esta emisión de calor. Tratamos de controlar la velocidad de esta transferencia de calor al ajustar nuestra ropa a las condiciones ambientales. Muchos aparatos domésticos se han diseñado, en su totalidad o en parte, aplicando los principios de la transferencia de calor. Algunos ejemplos incluyen la estufa eléctrica o de gas, el sistema de calefacción o de acondicionamiento del aire. La transferencia de calor desempeña un papel importante en el diseño de muchos otros aparatos, como los radiadores de automóviles, los colectores solares, diversos componentes de las plantas generadoras de energía e, incluso, las naves espaciales.
Transferencia de calor en la ingeniería

Los problemas de capacidad nominal se ocupan de la determinación de la velocidad de transferencia de calor para un sistema existente con una diferencia específica de temperatura. Los problemas de dimensionamiento se ocupan de la determinación del tamaño de un sistema con el fin de transferir calor a una velocidad determinada para una diferencia específica de la temperatura. Un proceso o un equipo de transferencia de calor puede ser analizado de forma experimental o de forma analítica. El procedimiento experimental tiene la ventaja de tratar con el sistema físico real y, gracias a ello, la cantidad deseada se determina mediante medición, dentro de los límites del error experimental. El procedimiento analítico tiene la ventaja de que es rápido y barato, pero los resultados obtenidos dependen de la exactitud de las hipótesis e idealizaciones establecidas en el análisis. En los estudios de transferencia de calor a menudo se logra una buena aproximación reduciendo, mediante el análisis, las opciones a solo unas cuantas y, a continuación, verificando los hallazgos experimentalmente.
Sensación de calor en el ser humano.
Generalmente en la mayoría de los países, se habla ya de calor cuando la temperatura supera los 26 ºC en cualquier hora del día, aunque varía mucho según la estación del año en que se encuentre una persona. Por ejemplo, 20 ºC en verano es considerado una temperatura fresca, mientras que en invierno, esta temperatura es considerada templada o cálida.

El fenómeno "ola de calor" se da cuando las temperaturas diurnas superan los 32 ºC y las nocturnas (o al amanecer) no bajan de los 23 ºC por tres días y es común en casi todo tipo de climas en época veraniega, a excepción de los países cerca de los polos, con clima templado y polar, cuando es muy infrecuente o casi nulo, y se hace más frecuente cuando los países están más cerca de los trópicos (países con climas tropical y subtropical). Esta denominación de ola de calor no quiere decir necesariamente calor excesivo ni temperaturas inusuales para la estación; pretende alertar sobre consecuencias perjudiciales en personas o colectivos vulnerables.
El ser humano siente más calor cuando hay más humedad en el ambiente. Por ejemplo, una temperatura de 30 ºC, pero con humedad ambiental del 10 %, se sentirá como si el ambiente fuese de solo 28 ºC. Pero con humedad ambiental del 90 %, se sentirá como si el ambiente fuese de 40 ºC.
La termodinámica (del griego θερμo, termo, que significa «calor»1 y δύναμις, dínamis, que significa «fuerza»)2 es la rama de la física que describe los estados de equilibrio a nivel macroscópico.3 Constituye una teoría fenomenológica, a partir de razonamientos deductivos, que estudia sistemas reales, sin modelizar y sigue un método experimental.4 Los estados de equilibrio se estudian y definen por medio de magnitudes extensivas tales como la energía interna, la entropía, el volumen o la composición molar del sistema,5 o por medio de magnitudes no-extensivas derivadas de las anteriores como la temperatura, presión y el potencial químico; otras magnitudes, tales como la imanación, la fuerza electromotriz y las asociadas con la mecánica de los medios continuos en general también pueden tratarse por medio de la termodinámica.6

La termodinámica ofrece un aparato formal aplicable únicamente a estados de equilibrio,7 definidos como aquel estado hacia «el que todo sistema tiende a evolucionar y caracterizado porque en el mismo todas las propiedades del sistema quedan determinadas por factores intrínsecos y no por influencias externas previamente aplicadas».5 Tales estados terminales de equilibrio son, por definición, independientes del tiempo, y todo el aparato formal de la termodinámica –todas las leyes y variables termodinámicas–, se definen de tal modo que podría decirse que un sistema está en equilibrio si sus propiedades pueden describirse consistentemente empleando la teoría termodinámica.5 Los estados de equilibrio son necesariamente coherentes con los contornos del sistema y las restricciones a las que esté sometido. Por medio de los cambios producidos en estas restricciones (esto es, al retirar limitaciones tales como impedir la expansión del volumen del sistema, impedir el flujo de calor, etc.), el sistema tenderá a evolucionar de un estado de equilibrio a otro;8 comparando ambos estados de equilibrio, la termodinámica permite estudiar los procesos de intercambio de masa y energía térmica entre sistemas térmicos diferentes.

Como ciencia fenomenológica, la termodinámica no se ocupa de ofrecer una interpretación física de sus magnitudes. La primera de ellas, la energía interna, se acepta como una manifestación macroscópica de las leyes de conservación de la energía a nivel microscópico, que permite caracterizar el estado energético del sistema macroscópico.9 El punto de partida para la mayor parte de las consideraciones termodinámicas son los que postulan que la energía puede ser intercambiada entre sistemas en forma de calor o trabajo, y que sólo puede hacerse de una determinada manera. También se introduce una magnitud llamada entropía,10 que se define como aquella función extensiva de la energía interna, el volumen y la composición molar que toma valores máximos en equilibrio: el principio de maximización de la entropía define el sentido en el que el sistema evoluciona de un estado de equilibrio a otro.11 Es la mecánica estadística, íntimamente relacionada con la termodinámica, la que ofrece una interpretación física de ambas magnitudes: la energía interna se identifica con la suma de las energías individuales de los átomos y moléculas del sistema, y la entropía mide el grado de orden y el estado dinámico de los sistemas, y tiene una conexión muy fuerte con la teoría de información.12 En la termodinámica se estudian y clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas se pueden combinar para expresar la energía interna y los potenciales termodinámicos, útiles para determinar las condiciones de equilibrio entre sistemas y los procesos espontáneos.

Con estas herramientas, la termodinámica describe cómo los sistemas responden a los cambios en su entorno. Esto se puede aplicar a una amplia variedad de ramas de la ciencia y de la ingeniería, tales como motores, cambios de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros negros.
Historia de la termodinámica
La historia de la termodinámica como disciplina científica se considera generalmente que comienza con Otto von Guericke quien, en 1650, construyó y diseñó la primera bomba de vacío y demostró las propiedades del vacío usando sus hemisferios de Magdeburgo. Guericke fue impulsado a hacer el vacío con el fin de refutar la suposición de Aristóteles que "la naturaleza aborrece el vacío". Poco después de Guericke, el físico y el químico Robert Boyle estudió y mejoró los diseños de Guericke y en 1656, en coordinación con el científico Robert Hooke, construyó una bomba de aire. Con esta bomba, Boyle y Hooke observaron una correlación entre la presión, temperatura y volumen. Con el tiempo, se formularon la ley de Boyle, indicando que para un gas a temperatura constante, la presión y el volumen son inversamente proporcionales y otras leyes de los gases.

En 1679, un asociado de Boyle, Denis Papin basándose en estos conceptos, construyó un digestor de vapor, que era un recipiente cerrado con una tapa de cierre hermético en el que el vapor confinado alcanzaba una alta presión, aumentando el punto de ebullición y acortando el tiempo de cocción de los alimentos.

En 1697, el ingeniero Thomas Savery, a partir de los diseños de Papin, construyó el primer motor térmico, seguido por Thomas Newcomen en 1712. Aunque estos primeros motores eran toscos y poco eficientes, atrajeron la atención de los científicos más destacados de la época.

En 1733, Bernoulli usó métodos estadísticos, junto con la mecánica clásica, para extraer resultados de la hidrodinámica, iniciando la mecánica estadística.

En 1781 los conceptos de capacidad calorífica y calor latente, fueron desarrollados por el profesor Joseph Black de la Universidad de Glasgow, donde James Watt trabajó como fabricante de instrumentos. Watt consultó con Black en las pruebas de la máquina de vapor, pero fue Watt quien concibió la idea del condensador externo, aumentando grandemente la eficiencia de la máquina de vapor.

En 1783, Antoine Lavoisier propone la teoría del calórico.

En 1798 Benjamin Thompson, conde de Rumford, demostró la conversión del trabajo mecánico en calor.
Nicolas Léonard Sadi Carnot, considerado como el "padre de la termodinámica "

Sobre la base de todo este trabajo previo, Sadi Carnot, el "padre de la termodinámica ", publicó en 1824 Reflexiones sobre la energía motriz del fuego, un discurso sobre la eficiencia térmica, la energía, la energía motriz y el motor. El documento describe las relaciones básicas energéticas entre la máquina de Carnot, el ciclo de Carnot y energía motriz, marcando el inicio de la termodinámica como ciencia moderna.

El primer libro de texto sobre termodinámica fue escrito en 1859 por William Rankine, quien originalmente se formó como físico y profesor de ingeniería civil y mecánica en la Universidad de Glasgow. La primera y segunda leyes de la termodinámica surgieron simultáneamente en la década de 1850, principalmente por la obras de Germain Henri Hess, William Rankine, Rudolf Clausius, James Prescott Joule y William Thomson (Lord Kelvin).
Los fundamentos de la termodinámica estadística se establecieron por los físicos como James Clerk Maxwell, Ludwig Boltzmann, Max Planck, Rudolf Clausius, Johannes van der Waals y J. Willard Gibbs.
Desde 1873 hasta el 76, el físico matemático estadounidense Josiah Willard Gibbs publicó una serie de tres artículos, siendo la más famosa Sobre el equilibrio de las sustancias heterogéneas. Gibbs demostró cómo los procesos termodinámicos, incluyendo reacciones químicas, se podrían analizar gráficamente. Mediante el estudio de la energía, la entropía, volumen, potencial químico, la temperatura y la presión del sistema termodinámico, se puede determinar si un proceso se produce espontáneamente. La termodinámica química y la fisicoquímica fueron desarrolladas además por Walther Nernst, Pierre Duhem, Gilbert N. Lewis, Jacobus Henricus van 't Hoff, y Théophile de Donder, entre otros, aplicando los métodos matemáticos de Gibbs.

También fueron de importancia para la termodinámica los desarrollos en termometría y manometría.
Leyes de la termodinámica
Principio cero de la termodinámica
Artículo principal: Principio cero de la termodinámica

Este principio o ley cero, establece que existe una determinada propiedad denominada temperatura empírica θ, que es común para todos los estados de equilibrio termodinámico que se encuentren en equilibrio mutuo con uno dado.

En palabras llanas: «Si pones en contacto un objeto con menor temperatura con otro con mayor temperatura, ambos evolucionan hasta que sus temperaturas se igualan».

Tiene una gran importancia experimental «pues permite construir instrumentos que midan la temperatura de un sistema» pero no resulta tan importante en el marco teórico de la termodinámica.

El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir o dar a conocer un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, coordenadas en el plano x, y) no son dependientes del tiempo. El tiempo es un parámetro cinético, asociado a nivel microscópico; el cual a su vez está dentro de la físico química y no es parámetro debido a que a la termodinámica solo le interesa trabajar con un tiempo inicial y otro final. A dichas variables empíricas (experimentales) de un sistema se las conoce como coordenadas térmicas y dinámicas del sistema.

Este principio fundamental, aún siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que recibiese el nombre de principio cero.
Primera ley de la termodinámica
Artículo principal: Primera ley de la termodinámica

También conocida como principio de conservación de la energía para la termodinámica, establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará.

Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica.
Primera ley de la termodinámica
 Primera ley de la termodinámica

También conocida como principio de conservación de la energía para la termodinámica, establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará.

Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica.
Segunda ley de la termodinámica
Artículo principal: Segunda ley de la termodinámica

Esta ley marca la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un tipo a otro sin pérdidas. De esta forma, la segunda ley impone restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el primer principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada entropía, de tal manera que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la variación de la entropía siempre debe ser mayor que cero.

Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico.

La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo mecánico mediante aporte de calor de una fuente o foco caliente, para ceder parte de este calor a la fuente o foco o sumidero frío. La diferencia entre los dos calores tiene su equivalente en el trabajo mecánico obtenido.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin.
Enunciado de Clausius
Diagrama del ciclo de Carnot en función de la presión y el volumen.

En palabras de Sears es: «No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada».
Enunciado de Kelvin—Planck

Es imposible construir una máquina térmica que, operando en un ciclo, no produzca otro efecto que la absorción de energía desde un depósito, con la realización de una cantidad igual de trabajo. Sería correcto decir que "Es imposible construir una máquina que, operando cíclicamente, produzca como único efecto la extracción de calor de un foco y la realización equivalente de trabajo". Varía con el primero, dado a que en él, se puede deducir que la máquina transforma todo el trabajo en calor, y, que el resto, para otras funciones... Este enunciado afirma la imposibilidad de construir una máquina que convierta todo el calor en trabajo. Siempre es necesario intercambiar calor con un segundo foco (el foco frío), de forma que parte del calor absorbido se expulsa como calor de desecho al ambiente. Ese calor desechado, no pude reutilizarse para aumentar el calor (inicial) producido por el sistema (en este caso la máquina), es a lo que llamamos entropía.
Otra interpretación

Es imposible construir una máquina térmica cíclica que transforme calor en trabajo sin aumentar la energía termodinámica del ambiente. Debido a esto podemos concluir, que el rendimiento energético de una máquina térmica cíclica que convierte calor en trabajo, siempre será menor a la unidad, y ésta estará más próxima a la unidad, cuanto mayor sea el rendimiento energético de la misma. Es decir, cuanto mayor sea el rendimiento energético de una máquina térmica, menor será el impacto en el ambiente, y viceversa.
Tercera ley de la termodinámica
Artículo principal: Tercera ley de la termodinámica

Algunas fuentes se refieren incorrectamente al postulado de Nernst como "la tercera de las leyes de la termodinámica". Es importante reconocer que no es una noción exigida por la termodinámica clásica por lo que resulta inapropiado tratarlo de «ley», siendo incluso inconsistente con la mecánica estadística clásica y necesitando el establecimiento previo de la estadística cuántica para ser valorado adecuadamente. La mayor parte de la termodinámica no requiere la utilización de este postulado.13 El postulado de Nernst, llamado así por ser propuesto por Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero absoluto.

Es importante remarcar que los principios o leyes de la termodinámica son válidas siempre para los sistemas macroscópicos, pero inaplicables a nivel microscópico. La idea del demonio de Maxwell ayuda a comprender los límites de la segunda ley de la termodinámica jugando con las propiedades microscópicas de las partículas que componen un gas.
Sistema
Artículo principal: Sistema termodinámico

Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos:

        Un sistema abierto: se da cuando existe un intercambio de masa y de energía con los alrededores; es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor.
        Un sistema cerrado: se da cuando no existe un intercambio de masa con el medio circundante, sólo se puede dar un intercambio de energía; un reloj de cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo.
        Un sistema aislado: se da cuando no existe el intercambio ni de masa y energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar con él? Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor) salga de él. El universo es un sistema aislado, ya que la variación de energía es cero \Delta E = 0.

Medio externo

Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc.

150415 Trabajo de recuperacion 8° A y B

Leyes de Newton ( 8° Grado)
Las leyes de Newton, también conocidas como leyes del movimiento de Newton,1 son tres principios a partir de los cuales se explican la mayor parte de los problemas planteados por la mecánica, en particular, aquellos relativos al movimiento de los cuerpos. Revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el universo.
    Constituyen los cimientos no solo de la dinámica clásica sino también de la física clásica en general. Aunque incluyen ciertas definiciones y en cierto sentido pueden verse como axiomas, Newton afirmó que estaban basadas en observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir de otras relaciones más básicas. La demostración de su validez radica en sus predicciones... La validez de esas predicciones fue verificada en todos y cada uno de los casos durante más de dos siglos.2
En concreto, la relevancia de estas leyes radica en dos aspectos:
    Por un lado, constituyen, junto con la transformación de Galileo, la base de la mecánica clásica;
    Por otro, al combinar estas leyes con la ley de la gravitación universal, se pueden deducir y explicar las leyes de Kepler sobre el movimiento planetario.
Así, las leyes de Newton permiten explicar tanto el movimiento de los astros, como los movimientos de los proyectiles artificiales creados por el ser humano, así como toda la mecánica de funcionamiento de las máquinas.
Su formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiae Naturalis Principia Mathematica.a
La dinámica de Newton, también llamada dinámica clásica, sólo se cumple en los sistemas de referencia inerciales (que se mueven a velocidad constante; la Tierra, aunque gire y rote, se trata como tal a efectos de muchos experimentos prácticos). Solo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de la luz (que no se acerquen a los 300 000 km/s); la razón estriba en que cuanto más cerca esté un cuerpo de alcanzar esa velocidad (lo que ocurriría en los sistemas de referencia no-inerciales), más posibilidades hay de que incidan sobre el mismo una serie de fenómenos denominados efectos relativistas o fuerzas ficticias, que añaden términos suplementarios capaces de explicar el movimiento de un sistema cerrado de partículas clásicas que interactúan entre sí. El estudio de estos efectos (aumento de la masa y contracción de la longitud, fundamentalmente) corresponde a la teoría de la relatividad especial, enunciada por Albert Einstein en 1905.
Fundamentos teóricos de las leyes
Sir Isaac Newton (1642-1727), fue un físico británico.

La base teórica que permitió a Newton establecer sus leyes está también precisada en sus Philosophiae naturalis principia mathematica.
El primer concepto que maneja es el de masa, que identifica con «cantidad de materia». La importancia de esta precisión está en que permite prescindir de toda cualidad que no sea física-matemática a la hora de tratar la dinámica de los cuerpos. Con todo, utiliza la idea de éter para poder mecanizar todo aquello no reducible a su concepto de masa.
Newton no asume a continuación que la cantidad de movimiento es el resultado del producto de la masa por la velocidad, y define dos tipos de fuerzas: la vis insita, que es proporcional a la masa y que refleja la inercia de la materia, y la vis impressa (momento de fuerza), que es la acción que cambia el estado de un cuerpo, sea cual sea ese estado; la vis impressa, además de producirse por choque o presión, puede deberse a la vis centrípeta (fuerza centrípeta), una fuerza que lleva al cuerpo hacia algún punto determinado. A diferencia de las otras causas, que son acciones de contacto, la vis centrípeta es una acción a distancia. En esta distingue Newton tres tipos de cantidades de fuerza: una absoluta, otra aceleradora y, finalmente, la motora, que es la que interviene en la ley fundamental del movimiento.
En tercer lugar, precisa la importancia de distinguir entre lo absoluto y relativo siempre que se hable de tiempo, espacio, lugar o movimiento.
En este sentido, Newton, que entiende el movimiento como una traslación de un cuerpo de un lugar a otro, para llegar al movimiento absoluto y verdadero de un cuerpo.
    compone el movimiento (relativo) de ese cuerpo en el lugar (relativo) en que se lo considera, con el movimiento (relativo) del lugar mismo en otro lugar en el que esté situado, y así sucesivamente, paso a paso, hasta llegar a un lugar inmóvil, es decir, al sistema de referencias de los movimientos absolutos.3
De acuerdo con esto, Newton establece que los movimientos aparentes son las diferencias de los movimientos verdaderos y que las fuerzas son causas y efectos de estos. Consecuentemente, la fuerza en Newton tiene un carácter absoluto, no relativo.
Las leyes de Newton
Primera ley de Newton o ley de la inercia

La primera ley del movimiento rebate la idea aristotélica de que un cuerpo solo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que:

    Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus illud a viribus impressis cogitur statum suum mutare4     Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.5

Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuyo resultante no sea nulo sobre él. Newton toma en cuenta, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta a la fricción.

En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma; un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta.

La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia conocidos como Sistemas de referencia inerciales, que son aquellos sistemas de referencia desde los que se observa que un cuerpo sobre el que no actúa ninguna fuerza neta se mueve con velocidad constante.

En realidad, es imposible encontrar un sistema de referencia inercial, ya que siempre hay algún tipo de fuerzas actuando sobre los cuerpos, no obstante siempre es posible encontrar un sistema de referencia en el que el problema que estemos estudiando se pueda tratar como si estuviésemos en un sistema inercial. En muchos casos, por ejemplo, suponer a un observador fijo en la Tierra es una buena aproximación de sistema inercial. Lo anterior porque a pesar que la Tierra cuenta con una aceleración traslacional y rotacional estas son del orden de 0.01 m/s^2 y en consecuencia podemos considerar que un sistema de referencia de un observador dentro de la superficie terrestre es un sistema de referencia inercial.
Segunda ley de Newton o ley de fuerza

La segunda ley del movimiento de Newton dice:

    Mutationem motus proportionalem esse vi motrici impressæ, & fieri secundum lineam rectam qua vis illa imprimitur.4     El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.6

Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en el momento lineal de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; las fuerzas son causas que producen aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se define simplemente en función del momento que se aplica a un objeto, con lo que dos fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.

En la mayoría de las ocasiones hay más de una fuerza actuando sobre un objeto, en este caso es necesario determinar una sola fuerza equivalente ya que de ésta depende la aceleración resultante. Dicha fuerza equivalente se determina al sumar todas las fuerzas que actúan sobre el objeto y se le da el nombre de fuerza neta.
   
Suponiendo que la masa es constante y que la velocidad es muy inferior a la velocidad de la luz la .

La fuerza es el producto de la masa por la aceleración, que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad, distinta para cada cuerpo, es su masa de inercia. Veamos lo siguiente, si despejamos m de la ecuación anterior obtenemos que m es la relación que existe entre \mathbf{F} y \mathbf{a}. Es decir la relación que hay entre la fuerza aplicada al cuerpo y la aceleración obtenida. Cuando un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa) se dice que tiene mucha inercia. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo.
Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.
De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido.
La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).
Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una aceleración descendente igual a la de la gravedad.
Tercera ley de Newton o principio de acción y reacción
    Actioni contrariam semper & æqualem esse reactionem: sive corporum duorum actiones in se mutuo semper esse æquales & in partes contrarias dirigi.4     Con toda acción ocurre siempre una reacción igual y contraria: quiere decir que las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.6
La tercera ley de Newton es completamente original (pues las dos primeras ya habían sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo.8 Expone que por cada fuerza que actúa sobre un cuerpo (empuje), este realiza una fuerza de igual intensidad, pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y de dirección, pero con sentido opuesto.
Este principio presupone que la interacción entre dos partículas se propaga instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su formulación original no es válido para fuerzas electromagnéticas puesto que estas no se propagan por el espacio de modo instantáneo sino que lo hacen a velocidad finita "c".
Es importante observar que este principio relaciona dos fuerzas que no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la segunda ley. Junto con las anteriores leyes, ésta permite enunciar los principios de conservación del momento lineal y del momento angular.
La CINEMATICA:
La cinemática (del griego κινεω, kineo, movimiento) es la rama de la física que estudia las leyes del movimiento de los cuerpos sin considerar las causas que lo originan (las fuerzas) y se limita, esencialmente, al estudio de la trayectoria en función del tiempo. La aceleración es el ritmo con el que cambia la velocidad. La velocidad y la aceleración son las dos principales magnitudes que describen cómo cambia la posición en función del tiempo.
HISTORIA
Los primeros en intentar describir el movimiento fueron los astrónomos y los filósofos griegos. Hacia 1605, Galileo Galilei hizo sus famosos estudios del movimiento de caída libre y de esferas en planos inclinados a fin de comprender aspectos del movimiento relevantes en su tiempo, como el movimiento de los planetas y de las balas de cañón.1 Posteriormente, el estudio de la cicloide realizado por Evangelista Torricelli (1608-1647) fue configurando lo que se conocería como geometría del movimiento
Luego las aportaciones de Nicolás Copérnico, Tycho Brahe y Johannes Kepler expandieron los horizontes en la descripción del movimiento durante el siglo XVI. En el 1687, con la publicación de la obra tituladaPrincipia, Isaac Newton hizo la mayor aportación conocida al estudio sistemático del movimiento. Isaac Newton (1642 - 1727) fue un físico y matemático inglés, considerado una de las mentes más brillantes en la historia de la ciencia. Entre otros numerosos aportes, estableció las tres leyes del movimiento que llevan su nombre, contribuyendo así al campo de la dinámica, y también postuló la Ley de gravitación universal.
El nacimiento de la cinemática moderna tiene lugar con la alocución de Pierre Varignon el 20 de enero de 1700 ante la Academia Real de las Ciencias de París.2 Fue allí cuando definió la noción de aceleración y mostró cómo es posible deducirla de la velocidad instantánea utilizando un simple procedimiento de cálculo diferencial.
En la segunda mitad del siglo XVIII se produjeron más contribuciones por Jean Le Rond d'Alembert, Leonhard Euler y André-Marie Ampère y continuaron con el enunciado de la ley fundamental del centro instantáneo de rotación en el movimiento plano, de Daniel Bernoulli (1700-1782).
El vocablo cinemática fue creado por André-Marie Ampère (1775-1836), quien delimitó el contenido de esta disciplina y aclaró su posición dentro del campo de la mecánica. Desde entonces y hasta la actualidad la cinemática ha continuado su desarrollo hasta adquirir una estructura propia.
Con la teoría de la relatividad especial de Albert Einstein en 1905 se inició una nueva etapa, la cinemática relativista, donde el tiempo y el espacio no son absolutos, y sí lo es la velocidad de la luz.
Elementos básicos de la cinemática.
Los elementos básicos de la cinemática son el espacio, el tiempo y un móvil.
En la mecánica clásica se admite la existencia de un espacio absoluto, es decir, un espacio anterior a todos los objetos materiales e independiente de la existencia de estos. Este espacio es el escenario donde ocurren todos los fenómenos físicos, y se supone que todas las leyes de la física se cumplen rigurosamente en todas las regiones del mismo. El espacio físico se representa en la mecánica clásica mediante un espacio euclidiano.
Análogamente, la mecánica clásica admite la existencia de un tiempo absoluto que transcurre del mismo modo en todas las regiones del Universo y que es independiente de la existencia de los objetos materiales y de la ocurrencia de los fenómenos físicos.
El móvil más simple que se puede considerar es el punto material o partícula; cuando en la cinemática se estudia este caso particular de móvil, se denomina cinemática de la partícula, y cuando el móvil bajo estudio es un cuerpo rígido se lo puede considerar un sistema de partículas y hacer extensivos análogos conceptos; en este caso se le denomina cinemática del sólido rígido o del cuerpo rígido.

Fundamento de la cinemática clásica
La cinemática trata del estudio del movimiento de los cuerpos en general y, en particular, el caso simplificado del movimiento de un punto material, mas no estudia por qué se mueven los cuerpos. Para sistemas de muchas partículas, por ejemplo los fluidos, las leyes de movimiento se estudian en la mecánica de fluidos.

El movimiento trazado por una partícula lo mide un observador respecto a un sistema de referencia. Desde el punto de vista matemático, la cinemática expresa cómo varían las coordenadas de posición de la partícula (o partículas) en función del tiempo. La función matemática que describe la trayectoria recorrida por el cuerpo (o partícula) depende de la velocidad (la rapidez con la que cambia de posición un móvil) y de la aceleración (variación de la velocidad respecto del tiempo).

El movimiento de una partícula (o cuerpo rígido) se puede describir según los valores de velocidad y aceleración, que son magnitudes vectoriales:

    Si la aceleración es nula, da lugar a un movimiento rectilíneo uniforme y la velocidad permanece constante a lo largo del tiempo.
    Si la aceleración es constante con igual dirección que la velocidad, da lugar al movimiento rectilíneo uniformemente acelerado y la velocidad variará a lo largo del tiempo.
    Si la aceleración es constante con dirección perpendicular a la velocidad, da lugar al movimiento circular uniforme, donde el módulo de la velocidad es constante, cambiando su dirección con el tiempo.
    Cuando la aceleración es constante y está en el mismo plano que la velocidad y la trayectoria, tiene lugar el movimiento parabólico, donde la componente de la velocidad en la dirección de la aceleración se comporta como un movimiento rectilíneo uniformemente acelerado, y la componente perpendicular se comporta como un movimiento rectilíneo uniforme, y se genera una trayectoria parabólica al componer ambas.
    Cuando la aceleración es constante pero no está en el mismo plano que la velocidad y la trayectoria, se observa el efecto de Coriolis.[cita requerida]
    En el movimiento armónico simple se tiene un movimiento periódico de vaivén, como el del péndulo, en el cual un cuerpo oscila a un lado y a otro desde la posición de equilibrio en una dirección determinada y en intervalos iguales de tiempo. La aceleración y la velocidad son funciones, en este caso, sinusoidales del tiempo.

Al considerar el movimiento de traslación de un cuerpo extenso, en el caso de ser rígido, conociendo como se mueve una de las partículas, se deduce como se mueven las demás. Así, basta describir el movimiento de una partícula puntual, como por ejemplo el centro de masa del cuerpo, para especificar el movimiento de todo el cuerpo. En la descripción del movimiento de rotación hay que considerar el eje de rotación respecto del cual rota el cuerpo y la distribución de partículas respecto al eje de giro. El estudio del movimiento de rotación de un sólido rígido suele incluirse en la temática de la mecánica del sólido rígido, por ser más complicado. Un movimiento interesante es el de una peonza, que al girar puede tener un movimiento de precesión y de nutación.

Cuando un cuerpo posee varios movimientos simultáneamente, como por ejemplo uno de traslación y otro de rotación, se puede estudiar cada uno por separado en el sistema de referencia que sea apropiado para cada uno, y luego, superponer los movimientos.
Sistemas de coordenadas
En el estudio del movimiento, los sistemas de coordenadas más útiles se encuentran viendo los límites de la trayectoria a recorrer o analizando el efecto geométrico de la aceleración que afecta al movimiento. Así, para describir el movimiento de un talón obligado a desplazarse a lo largo de un aro circular, la coordenada más útil sería el ángulo trazado sobre el aro. Del mismo modo, para describir el movimiento de una partícula sometida a la acción de una fuerza central, las coordenadas polares serían las más útiles.

En la gran mayoría de los casos, el estudio cinemático se hace sobre un sistema de coordenadas cartesianas, usando una, dos o tres dimensiones, según la trayectoria seguida por el cuerpo.
Registro del movimiento
La tecnología hoy en día nos ofrece muchas formas de registrar el movimiento efectuado por un cuerpo. Así, para medir la velocidad de los vehículos se dispone del radar de tráfico cuyo funcionamiento se basa en el efecto Doppler. El tacómetro es un indicador de la velocidad de un vehículo basado en la frecuencia de rotación de las ruedas. Los caminantes disponen de podómetros que detectan las vibraciones características del paso y, suponiendo una distancia media característica para cada paso, permiten calcular la distancia recorrida. El vídeo, unido al análisis informático de las imágenes, permite igualmente determinar la posición y la velocidad de los vehículos.
Movimiento rectilíneo
Es aquél en el que el móvil describe una trayectoria en línea recta.
Figura 1. Variación en el tiempo de la posición y la velocidad para un movimiento rectilíneo uniforme.
En este movimiento la velocidad permanece constante y no hay una variación de la aceleración (a) en el transcurso del tiempo. Esto corresponde al movimiento de un objeto lanzado en el espacio fuera de toda interacción, o al movimiento de un objeto que se desliza sin fricción. Siendo la velocidad v constante, la posición variará linealmente respecto del tiempo, según la ecuación:


    Movimiento rectilíneo uniformemente acelerado
Artículo principal: Movimiento rectilíneo uniformemente acelerado
Figura 2. Variación en el tiempo de la posición, la velocidad y la aceleración en un movimiento rectilíneo uniformemente acelerado.

En éste movimiento la aceleración es constante, por lo que la velocidad de móvil varía linealmente y la posición cuadráticamente con tiempo. Las ecuaciones que rigen este movimiento son las siguientes:

 
Obsérvese que si la aceleración fuese nula, las ecuaciones anteriores corresponderían a las de un movimiento rectilíneo uniforme, es decir, con velocidad \ v=v_0 constante.
Dos casos específicos de MRUA son la caída libre y el tiro vertical. La caída libre es el movimiento de un objeto que cae en dirección al centro de la Tierra con una aceleración equivalente a la aceleración de la gravedad (que en el caso del planeta Tierra al nivel del mar es de aproximadamente 9,8 m/s2). El tiro vertical, en cambio, corresponde al de un objeto arrojado en la dirección opuesta al centro de la tierra, ganando altura. En este caso la aceleración de la gravedad, provoca que el objeto vaya perdiendo velocidad, en lugar de ganarla, hasta llegar al estado de reposo; seguidamente, y a partir de allí, comienza un movimiento de caída libre con velocidad inicial nula.
Movimiento armónico simple
Artículo principal: Movimiento armónico simple
Una masa colgada de un muelle se mueve con un movimiento armónico simple.
Es un movimiento periódico de vaivén, en el que un cuerpo oscila a un lado y a otro de una posición de equilibrio en una dirección determinada y en intervalos iguales de tiempo. Matemáticamente, la trayectoria recorrida se expresa en función del tiempo usando funciones trigonométricas, que son periódicas. Así por ejemplo, la ecuación de posición respecto del tiempo, para el caso de movimiento en una dimensión es:

   

Los movimientos del péndulo, de una masa unida a un muelle o la vibración de los átomos en las redes cristalinas son de estas características.

La aceleración que experimenta el cuerpo es proporcional al desplazamiento del objeto y de dirección contraria, desde el punto de equilibrio.:
La solución a esa ecuación diferencial lleva a funciones trigonométricas de la forma anterior. Lógicamente, un movimiento periódico oscilatorio real se ralentiza en el tiempo (por fricción mayormente), por lo que la expresión de la aceleración es más complicada, necesitando agregar nuevos términos relacionados con la fricción. Una buena aproximación a la realidad es el estudio del movimiento oscilatorio amortiguado.
Movimiento circular
El movimiento circular en la práctica es un tipo muy común de movimiento: Lo experimentan, por ejemplo, las partículas de un disco que gira sobre su eje, las de una noria, las de las agujas de un reloj, las de las paletas de un ventilador, etc. Para el caso de un disco en rotación alrededor de un eje fijo, cualquiera de sus puntos describe trayectorias circulares, realizando un cierto número de vueltas durante determinado intervalo de tiempo. Para la descripción de este movimiento resulta conveniente referirse ángulos recorridos; ya que estos últimos son idénticos para todos los puntos del disco (referido a un mismo centro). La longitud del arco recorrido por un punto del disco depende de su posición y es igual al producto del ángulo recorrido por su distancia al eje o centro de giro. La velocidad angular (ω) se define como el desplazamiento angular respecto del tiempo, y se representa mediante un vector perpendicular al plano de rotación; su dirección se determina aplicando la "regla de la mano derecha" o del sacacorchos. La aceleración angular (α) resulta ser variación de velocidad angular respecto del tiempo, y se representa por un vector análogo al de la velocidad angular, pero puede o no tener la misma dirección (según acelere o retarde).

La velocidad (v) de una partícula es una magnitud vectorial cuyo módulo expresa la longitud del arco recorrido (espacio) por unidad de tiempo tiempo; dicho módulo también se denomina rapidez o celeridad. Se representa mediante un vector cuya dirección es tangente a la trayectoria circular y coincide con el del movimiento.

La aceleración (a) de una partícula es una magnitud vectorial que indica la rapidez con que cambia la velocidad respecto del tiempo; esto es, el cambio del vector velocidad por unidad de tiempo. La aceleración tiene generalmente dos componentes: la aceleración tangencial a la trayectoria y la aceleración normal a ésta. La aceleración tangencial es la que causa la variación del módulo de la velocidad (celeridad) respecto del tiempo, mientras que la aceleración normal es la responsable del cambio de dirección de la velocidad. Los módulos de ambas componentes de la aceleración dependen de la distancia a la que se encuentre la partícula respecto del eje de giro.
Caída libre
En física, se denomina caída libre al movimiento de un cuerpo bajo la acción exclusiva de un campo gravitatorio. Esta definición formal excluye a todas las caídas reales influenciadas en mayor o menor medida por la resistencia aerodinámica del aire, así como a cualquier otra que tenga lugar en el seno de un fluido; sin embargo, es frecuente también referirse coloquialmente a éstas como caídas libres, aunque los efectos de la viscosidad del medio no sean por lo general despreciables.
El concepto es aplicable también a objetos en movimiento vertical ascendente sometidos a la acción desaceleradora de la gravedad, como un disparo vertical; o a cualquier objeto (satélites naturales o artificiales, planetas, etc.) en órbita alrededor de un cuerpo celeste. Otros sucesos referidos también como caída libre lo constituyen las trayectorias geodésicas en el espacio-tiempo descritas en la teoría de la relatividad general.
Ejemplos de caída libre deportiva los encontramos en actividades basadas en dejarse caer una persona a través de la atmósfera sin sustentación alar ni de paracaídas durante un cierto trayecto
La caída libre como sistema de referencia
Un sistema de referencia ligado a un cuerpo en caída libre puede considerarse inercial o no inercial en función del marco teórico que se esté usando.

En la física clásica, la fuerza gravitatoria que se ejerce sobre una masa es proporcional a la intensidad del campo gravitatorio en la posición espacial donde se encuentre dicha masa. La constante de proporcionalidad es precisamente el valor de la masa inercial del cuerpo, tal y como establece el principio de equivalencia. En la física relativista, la gravedad es el efecto que produce sobre las trayectorias de los cuerpos la curvatura del espacio-tiempo; en este caso, la gravedad no es una fuerza, sino una geodésica. Por tanto, desde el punto de vista de la física clásica, un sistema de referencia en caída libre es un sistema acelerado por la fuerza de la gravedad y, como tal, es no inercial. Por el contrario, desde el punto de vista de la física relativista, el mismo sistema de referencia es inercial, pues aunque está acelerado en el espacio, no está acelerado en el espacio-tiempo. La diferencia radica en la propia definición de los conceptos geométricos y cinemáticos, que para cada marco teórico son completamente diferentes.
Caída libre ideal
En la caída libre ideal, se desprecia la resistencia aerodinámica que presenta el aire al movimiento del cuerpo, analizando lo que pasaría en el vacío. En esas condiciones, la aceleración que adquiriría el cuerpo sería debida exclusivamente a la gravedad, siendo independiente de su masa; por ejemplo, si dejáramos caer una bala de cañón y una pluma en el vacío, ambos adquirirían la misma aceleración, g\,, que es la aceleración de la gravedad

Movimiento parabólico
Se denomina movimiento parabólico al realizado por un objeto cuya trayectoria describe una parábola. Se corresponde con la trayectoria ideal de un proyectil que se mueve en un medio que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio uniforme.
En realidad, cuando se habla de cuerpos que se mueven en un campo gravitatorio central (como el de La Tierra), el movimiento es elíptico. En la superficie de la Tierra, ese movimiento es tan parecido a una parábola que perfectamente podemos calcular su trayectoria usando la ecuación matemática de una parábola. La ecuación de una elipse es bastante más compleja. Al lanzar una piedra al aire, la piedra intenta realizar una elipse en uno de cuyos focos está el centro de la Tierra. Al realizar esta elipse inmediatamente choca con el suelo y la piedra se para, pero su trayectoria es en realidad un "trozo" de elipse. Es cierto que ese "trozo" de elipse es casi idéntico a un "trozo" de parábola. Por ello utilizamos la ecuación de una parábola y lo llamamos "tiro parabólico". Si nos alejamos de la superficie de la Tierra sí tendríamos que utilizar una elipse(como en el caso de los satélites artificiales).
El movimiento parabólico puede ser analizado como la composición de dos movimientos rectilíneos: un movimiento rectilíneo uniforme horizontal y un movimiento rectilíneo uniformemente acelerado vertical.
El tiro parabólico tiene las siguientes características:
    Conociendo la velocidad de salida (inicial), el ángulo de inclinación inicial y la diferencia de alturas (entre salida y llegada) se conocerá toda la trayectoria.
    Los ángulos de salida y llegada son iguales.
    La mayor distancia cubierta o alcance se logra con ángulos de salida de 45º.
    Para lograr la mayor distancia fijado el ángulo el factor más importante es la velocidad.
    Se puede analizar el movimiento en vertical independientemente del horizontal.