Texto académico

Autores

 

 


Módulo 0. El universitario y sus demonios  


0. Los demonios que desafían la explicación racional científica


El vaso de la ciencia está medio vacío. Los investigadores de todo el mundo están obsesionados con todo lo que aún no sabemos. Era lo mismo hace cien años, y más de cien años antes también. De vez en cuando, el progreso llega. Algo hace clic en la cabeza de alguien. Todo cae en su lugar. El resultado es nada menos que la magia de la razón y la determinación humana. Lo que una vez había sido invisible de repente parece haberse estado escondiendo a la vista. La inspiración nos sucede a todos nosotros: escritores, poetas, científicos, profesores y estudiantes universitarios, así como a la gente en general. La brecha entre el conocimiento y la imaginación no es tan inescrutable como se ha hecho parecer. Es consecuencia mucho después del momento en que estas primeras ideas se evaporan y las preocupaciones prácticas toman el relevo. 


Al previsualizar un mundo de maravillas mucho antes de que se abran las cortinas y comience el espectáculo, podemos sentarnos en el ensayo de nuestro propio futuro científico y tecnológico. La antesala del descubrimiento es un lugar donde las ideas se forjan antes de que vean la luz del día. Es la incubadora la que da forma a la ciencia antes de que se pruebe en tecnología. Cuando el espectáculo de nuestros logros incluye las evidencias, fundamentos y justificaciones que condujeron a ellas, provocan que el conocimiento se vea diferente. ¿Cómo podemos explicar la trayectoria de la ciencia y la tecnología que nos ha llevado de la máquina de vapor al microchip, de la revolución de la Inteligencia Artificial a la tecnología CRISPR (es una herramienta simple pero potente para editar genomas)?.


Un científico al amanecer en su laboratorio escribe manuscritos, entrena nuevos colegas, enseña a jóvenes universitarios, escribe libros… Este camino tiene una lógica clara que funciona de manera fragmentaria, sin embargo, en algún lugar del camino algo más grande que los propios actores, parece irrumpir. Los pensadores han quedado fascinados por los momentos de descubrimiento en la ciencia, cuando los científicos genios tienen una brillante idea: Eureka. Los avances a menudo llegan cuando menos se esperan. Lo que antes era imposible ya no lo es. Los nuevos experimentos y tecnologías se conciben por primera vez en la mente de los científicos. Son pensables mucho antes de que sean factibles. Cuando los científicos trabajan con ideas radicales en caminos no explorados, sus mentes con frecuencia están en el espacio del laboratorio de las ideas, hechas de piezas de matemáticas y conexiones aportadas por toda la comunidad científica. 


La naturaleza sorprendente del conocimiento y la invención puede llevarnos a sospechar que algo parecido a una fuerza inconsciente convive detrás de los límites de la razón e impulsa su desarrollo desde el exterior. Descubrir tiene su propia historia retorcida, fascinante y a veces  aterradora. También tiene sentido su propio vocabulario técnico altamente desarrollado. Los científicos a menudo usan la palabra “demonio” dentro de las frases más preliminares de su investigación. Designa algo que aún no se conoce o se entiende completamente. Estos demonios no son religiosos, sobrenaturales, monstruosos o simplemente duendes malvados. Se refieren a algo que desafía la explicación racional y puede desconcertar o romper una hipótesis o una ley de la naturaleza. Su función no es principalmente metafórica o figurativa. Son términos técnicos cuya definición se puede encontrar en casi cualquier diccionario. El Oxford English Dictionary define “dominio” en la ciencia como: “cualquiera de varias entidades de noción que tienen habilidades especiales, utilizadas en experimentos de pensamiento científico”. Se menciona con referencia a la persona particular asociada con el diseño de experimentos que sigue un patrón originado con René Descartes, el pensador del siglo XVII conocido por inaugurar la era de la razón. El dominio de Descartes abrió las puertas a muchos otros, continuando hasta el día de hoy. Los nuevos nombres se añaden tan pronto como pasan a formar parte del argot del laboratorio. El demonio de Laplace, siguió los pasos del demonio de Descartes y se convirtió en un modelo para nuevas máquinas calculadoras que potencialmente podrían determinar la posición precisa y el movimiento de todas las partículas en el universo para conocer todo el pasado e incluso el futuro.


Estos dos demonios pronto se enfrentaron a la dura competencia de la criatura victoriana llamada “el demonio de Maxwell”, que podría causar estragos con el curso habitual de la naturaleza. A medida que la ciencia crecía en prestigio y complejidad, muchos otros demonios fueron invocados y nombrados en honor a Charles Darwin, Albert Einstein, Max Planck, Richard Feynman y otros.


Averiguar las cosas a menudo implica invocar a los demonios como una categoría útil para articular y llenar los vacíos del conocimiento existente. Cuando se enfrentan a un problema particularmente difícil, o cuando el universo no está funcionando de la manera que uno esperaría, los científicos inmediatamente comienzan a sospechar de un perpetrador. Además de recibir el apellido de científico que comienza a pensar en el enigma, los culpables a menudo son antropomorfizados a medida que se convierte en planos para las tecnologías futuras. Los investigadores a veces se refieren a ellos como él, otras veces como ella, y a menudo como ella. A medida que los científicos imaginan demonios con habilidades que compiten y los imaginan colaborando o luchando entre sí, inspiran a la creación de los arreglos tecnológicos cada vez más complejos. Los prototipos son constantemente actualizados. Las nuevas versiones están a la vuelta de la esquina, pronto serán lanzados. 


Al realizar una búsqueda de información entre archivos de una computadora, se utilizan líneas de código que son denominadas “demonios” para encontrar las coincidencias que está buscando. Cuando inicia sesión en Internet o usa un teléfono inteligente, miles de demonios de este tipo (programas) se ponen a trabajar para suavizar los procesos de comunicación entre usted, su dispositivo y los dispositivos de los demás. Hoy en día, estos demonios son fundamentales para infraestructura de comunicaciones que nos rodean. Los mecanismos internos de interacción, causalidad, funcionalidad, correlación…, en su conjunto son esos demonios que se buscan revelar, que se nos esconden y resisten a nuestros observaciones y diseños experimentales.


El rompecabezas se rompe de la siguiente manera, cada ser vivo que conocemos surgió de otro ser vivo, sin embargo, tenemos razones para pensar que no había vida en absoluto cuando el universo se puso en marcha por primera vez. Esta observación implica que la primera vida allí creció a partir de cosas que no estaban vivas, y la pregunta es si este gran evento ocurrió misteriosamente, de una manera incomprensible para las leyes de la física y la química tal y como las conocemos, o que tuvo lugar en una serie de pasos que podemos entender. En otras palabras, ¿cómo comenzó la vida? Los científicos, los observadores curiosos del mundo natural y muchos otros tipos de buscadores contemplativos que luchan con la condición humana pueden estar de acuerdo en la importancia de esta pregunta, pero reina mucha confusión y desacuerdo sobre qué tipo de respuesta estamos buscando. 


A algunos biofísicos les gustaría saber qué tipos específicos de átomos chocaron entre sí para formar las primeras biomoléculas, mientras que otros dan por sentado que algo como esto sucedió, y centrar su investigación en su lugar en juzgar la probabilidad de tal evento bajo diversas condiciones. Para el caso, ¿qué cuenta como vida y qué no? ¿Fue la presencia temprana de la vida en el mundo un continuo gris a través del cual las cosas progresaron gradualmente con el tiempo, o insistimos en que debe haber habido un momento en que irrumpió decisivamente en la escena?  Si es lo primero, ¿con qué precisión podemos diferenciar entre algo que está vivo y algo que no lo está? Si este último, teniendo en cuenta que la vida es buena para hacer un número impresionante de cosas, ¿cuál de ellas nació primero? ¿Estaba garantizando hacerlo, de la misma manera que el hielo siempre se derrite bajo el cálido sol, o debe haber sido provocado por un suceso extraño, uno tan raro que nuestra mejor teoría de cómo sucedieron las cosas no es ninguna explicación en absoluto? Entendemos algo de por qué el hielo se forma cuando el agua se enfría lo suficiente, o por qué las estrellas se encienden cuando la gravedad es lo suficientemente fuerte como para exprimir el gas hidrógeno, pero es extraña y maravillosamente más difícil articular las condiciones físicas en las que se garantiza que la materia no está viva. Al igual que el espectador escéptico en un espectáculo de magia, muchos de nosotros simplemente no estaremos satisfechos hasta que lleguemos a ver cómo se hizo el truco. 


La investigación científica tenaz no es, sin embargo, la única razón por la que la gente anhela tanto saber algo de cómo comenzó la vida. Un ser humano reflexivo, de hecho, incluso un científico dispuesto a mirarse honestamente en el espejo y examinar sus propios sentimientos cuidadosamente, puede admitir que la razón por la que la pregunta tiene tal dominio sobre nosotros es que expresa un anhelo compartido. La búsqueda de significado y propósito comienza con preguntarse de dónde venimos y de qué somos parte, y buscar un relato de cómo comenzaron las cosas, en parte porque la gente usa ideas sobre el pasado para decidir cómo actuar en el presente y en el futuro. 


Si de todo lo que los seres humanos están hechos se puede encontrar en un estanque o un conjunto de química, ¿entonces qué es lo que realmente nos hace diferentes? ¿Son los humanos simplemente animales, algo más? ¿Expresa nuestra existencia la intensión de un creador que nos diseñó a su imagen, o como nosotros y todo la vida meramente una variedad exótica de escarcha condensada en la capa delgada entre el suelo y el cielo? 


Los seres vivos logran una variedad de hazañas que, aunque no son exclusivas de la vida, son ciertamente distintivas de ella. Por ejemplo, hacen copias de sí mismos, consumen combustible, y predicen con precisión el medio ambiente circundante. Todos estos procesos son parte integral de lo que es estar vivo, y cada uno de ellos puede ser estudiado sistemáticamente desde la perspectiva de la termodinámica. Haciendo hincapié en el progreso reciente en una rama de rápido crecimiento de la termodinámica. Haciendo hincapié en el progreso de la termodinámica conocida como mecánica estadística lejos del equilibrio. El punto clave es darnos cuenta de que, así como los seres vivos tienen propiedades especializadas determinadas por sus genes que han heredado de sus antepasados, también las colecciones de partículas que interactúan físicamente tienen propiedades especializadas que provienen de las formas pasadas en la que se han ensamblado. Al ser continuamente empujadas y golpeadas por los patrones presentados en el medio ambiente, la materia puede someterse a una exploración continua del espacio de posibles formas cuyo ritmo y forma se ajustan a esos patrones de maneras que se parecen mucho a la vida. Incluso más que la mayoría de los otros temas científicos, este seguramente exige una conversación más amplia. Y sea porque uno necesita lidiar poderosamente con la cuestión simple de qué es estar vivo y lo que no está, o por qué los argumentos sobre lo excepcional, el valor y el propósito de la vida, constituyen una gran parte de lo que la gente ha estado en desacuerdo y por lo que lucha a lo largo de los siglos, parece completamente necesario poner nuestro examen de la frontera entre la vida y la no vida en un contexto científico convenientemente rico. Puede que haya más de una forma de hacerlo, en principio, pero aquí es donde nuestros propios compromisos personales profundamente intervienen en el esfuerzo de pensar. 


0.1 La predictibilidad y lo ontológico como generadores de tecnología 


El pensamiento científico moderno: pensar desde la teoría y librarnos de los demonios con audaces diseños experimentales. Este modelo de pensamiento nos pone en el camino de darnos la oportunidad de escribir, pensar y debatir sobre el tema de colaboración entre teóricos y empiristas. Es esencial para hacer sólido nuestro pensamiento. En la universidad estamos lidiando con estos difíciles problemas intelectuales, intentamos animar un diálogo sólido entre diseñadores experimentales, teóricos e ingenieros. Nuestra experiencia nos dice que la comunidad intelectual solo puede dar pasos éticos progresistas si logra emprender discusiones y debates honestos y flexibles entre teóricos y empiristas. Este camino intenta aclarar nuestro pensamiento sobre la forma en que hacemos investigación. 


En primer lugar escribimos para estudiantes universitarios que están pensando en cómo encajan la investigación científica, la ingeniería y el diseño experimental. Es fácil perderse en el bosque solo mirando los árboles durante el estudio de asignaturas del plan de estudios. En medio de la formación científica formal en clases de metodología o construcción de teorías, es difícil ver cómo estas empresas se conectan con la ciencia de datos y la producción de tecnología. En segundo lugar, la comunidad académica de profesores e investigadores, puede ayudar a comprender cómo sería benéfico resolver el divorcio entre empíricos y teóricos. Hacer preguntas como modelos (los teóricos) y los empíricos trabajan juntos para avanzar en objetos disciplinarios y la creación de nuevas tecnologías. Pero además, discutir este tema, es un apasionante placer para tomar café y escribir con un interés en la teoría formal y la inferencia causal, pensar en el valor de los modelos abstractos como generadores de tecnología y nuevos diseños biotecnológicos.   


Discutir los papeles del modelador y el empírico será útil para que los estudiantes universitarios en la búsqueda de la excelencia, lean un marco moderno en el que se desarrolla la ciencia de datos. Creemos que hacerlo clarifica la interacción entre la teoría y lo empírico. Nuestro enfoque es la discusión de las ideas manteniendo al mínimo los tecnicismos, buscando la comprensión conceptual.



Imagen

Figura 0.1 Conexiones entre modelado, diseño experimental y tecnología (apoyado en el trabajo de Quentin Ruyant sobre  “Theories, Models and Representation[1]”)


El auge de la teoría formal y la revolución de la credibilidad son dos de los grandes desarrollos de la ciencia de los últimos 50 años. Con estos avances, el potencial para el diálogo productivo entre teóricos y empíricos nunca ha sido mayor. Por lo tanto, es penoso que, en las ciencias y en la ingeniería parezca mantienen este hecho a la deriva. Irónicamente, estos dos desarrollos, deberían unirse más en la formación de científicos en las universidades, estar uniéndolos a los ingenieros, en cambio los está dividiendo.  La revolución de la credibilidad ha sensibilizado desde la ingeniería a los científicos sobre los desafíos de separar: la correlación de la causalidad; y nos ha obligado a contar con la verosimilitud de las interpretaciones causales que se dan rutinariamente a las estimaciones empíricas[2].


Por un lado, a algunos científicos les preocupa que la búsqueda de estimaciones causales creíbles esté desplazando el objetivo canónico de comprender fenómenos científicos importantes. ¿Por qué sucede esto? Muchos ven a los partidarios de la revolución científica de los datos en la credibilidad, desdeñosos de lo que puede ser y de hecho, se puede aprender por estudios empíricos de otros enfoques. La revolución de la credibilidad nos distrae de nuestros verdaderos objetivos. Esarey y Summer describen el auge del “empirismo radical” como divorciado de la teoría[3]. Otros se lamentan de que debido a no creer que una buena identificación causal, no siempre es posible en cuestiones de importancia central, la revolución de la credibilidad ha llevado a los científicos a reducir excesivamente la gama de preguntas que hacen. Al priorizar las estrategias de identificación de hechos, se corre el riesgo de perder de vista los intereses teóricos y analíticos que motivan la investigación científica. 


En el otro lado están los científicos que han abrazado la revolución de la credibilidad, argumentando que gran parte del trabajo cuantitativo canónico en ciencias ofrece solo la ilusión de aprender sin un modelado. Para estos, no tiene sentido abordar preguntas que no se pueden responder con claridad. En su lugar, sugieren centrarnos en cuestiones accesibles a diseños de investigaciones creíbles. Justo antes de la revolución de la credibilidad como producción en masa de pseudo-hechos cuantitativos a través de regresión múltiple y otros medios de la ciencia de datos; Hauke argumenta que sin un diseño de un experimento cercano a lo natural, una discontinuidad o algún otro diseño, ninguna cantidad de modelado estadístico puede hacer que el paso de la correlación a la causalidad sea persuasivo[4]. Esta conclusión tiene implicaciones para el tipo de preguntas causales que somos capaces de responder con cierto rigor. 


Esta cisma recuerda la división anterior abierta por el auge de la teoría formal y su mayor enfoque en la construcción de modelos. Al igual que los partidarios de la revolución de la credibilidad, los primeros teóricos de la elección racional, como Green y Shapiro describen: no sostenemos que los científicos tradicionales han estudiado los fenómenos equivocados, sino que han estudiando los fenómenos correctos de la manera equivocada[5]. 


En el papel de los críticos actuales de la revolución de la credibilidad, están aquellos preocupados de una fetichización de la elegancia matemática, porque argumentan  que distrae a los científicos del objeto de generar ideas genuinamente útiles para explicar o adecuar la evaluación empírica. Muchos defienden que el progreso empírico se ha visto retrasado por lo que se denomina investigación basada en métodos, en lugar de realizar investigaciones basadas en problemas. ¿Qué es interesante o útil?, preguntaron los críticos, acerca de los modelos estrechos construidos sobre suposiciones que llevan, en el mejor de los casos, solo a un resultado en una relación distante con la realidad. Por ejemplo, en su crítica a los modelos formales, Fernández (2021) argumentó que son una idea consistente, precisa, pero trivial al menos en el valor de una nueva conjetura audaz que nos ayude a comprender algún problema importante del mundo real… una teoría lógicamente consistente pero empíricamente falsa que tiene poco valor[6].


La formalización (modelado matemático) permite a los científicos evitar errores de lógica y lograr una mayor transparencia. Pero estrecha las conexiones entre las suposiciones y las conclusiones fuera de todo lo que la teoría formal tuviera que ofrecer, esta sería una contribución muy importante. Algunos investigadores señalan tres virtudes de la formalización[7]: ver con claridad qué supuestos impulsan qué resultados; evitar errores de lógica a través del rigor y, lograr una especie de unidad o coherencia evitando hipótesis que dependen de supuestos contradictorios.


Esta cisma presagiaba la división cada vez más profunda de hoy entre teóricos y empíricos. Si bien, en principio, casi todo el mundo está de acuerdo en que los teóricos  y empíricos deben trabajar juntos, en la práctica, cada parte siente que la otra a menudo no sostiene su parte del trato. Por un lado, un grupo de pensadores de mentalidad teórica que está desconcertado y consternado por el giro empírico hacia los diseños de investigación para responder de manera creíble a preguntas causales   estrechas[8]. ¿Qué se preguntan los empiristas?, están obsesionados con responder cuidadosamente preguntas poco interesantes, en lugar de hacer un trabajo que hable de preguntas teóricas. Por otro lado, un grupo de pensadores con mentalidad empírica están igualmente desconcertados y consternados por el enfoque de los teóricos en modelos abstractos, desde su perspectiva son suposiciones demostrablemente falsas[9]. De qué sirven, se preguntan, ¿pueden ser útiles tales modelos para explicar el mundo o guiar la investigación empírica? 


Como resultado de esta mutua perplejidad e insatisfacción, los grupos se están separando, yendo sobre sus propios asuntos y viendo al otro con creciente escepticismo. Esta brecha cada vez mayor amenaza el vínculo entre teoría y lo empírico que son juntos esencialmente la empresa científica.


Ha llegado el momento de volver a unir estos dos grupos. La teoría formal y la revolución de la creatividad (ciencia de datos), son socios naturales que, juntas, pueden apoyar un diálogo en la formación de jóvenes universitarios. Una formación STEM entre teoría y lo empírico que nunca antes ha sido posible en la ciencia y el humanismo en un México de tradición negacionista, denunciado en 1928 por el nicolaita Samuel Ramos. 


0.2 Darse la mano empiristas y teóricos 


Sin embargo, impulsar el reconciliamiento de las disciplinas del oficio teórico y empírico, actualmente requiere integrar su potencial como entidades unidas. Empiristas y teóricos por igual impactan en la empresa del otro. Todos necesitan un marco mejor para encajar en la actividad universitaria de investigación y formación académica de nuevos científicos. Cada parte necesita comprender mejor qué tipo de conocimiento está tratando de crear la otra parte y cómo lo hacen. Solo con esta comprensión los teóricos verán cómo hacer que sus modelos sean genuinamente útiles para la investigación empírica. Y los empiristas verán cómo estructurar su investigación de manera que hablen de preguntas teóricamente significativas. 


Si vamos a aprender a detectar oportunidades para una conexión más profunda entre teóricos y empíricos, tenemos que dedicar algún tiempo a los detalles. Detalles sobre por qué los teóricos escriben los tipos de modelos que hacen, y cómo esos modelos se pueden hacer más útiles para los empiristas. Detalles sobre por qué los empiristas usan los tipos de diseños de investigación que emplean, y cómo esos diseños de investigación se pueden hacer para dirigirnos mejor a preguntas teóricamente significativas. Detalles sobre cómo funciona exactamente la conexión entre ellos y qué hace a esa conexión informativa. 


Pero sería un error empezar por ahí. Nos preocupa que si nos metemos de nuevo en los detalles, usted no tendría ningún contexto para entender por qué hacemos hincapié en alguno temas y restar importancia a otros. O cómo nuestra discusión de los detalles encaja en el panorama general, creado el diálogo sólido entre la teoría y los empíricos que es necesario para una ciencia próspera. En síntesis, extrañaremos el bosque para ir a ver los árboles. 


Es necesario un marco conceptual para pensar en cómo encaja toda esta empresa científica. En términos generales, ¿cómo funcionan los modelos teóricos y la investigación empírica?, ¿cómo los diseños experimentales o modelos se relacionan con el mundo real? Cuando comparamos una implicación teórica con un hallazgo empírico, ¿de qué tipo de afirmaciones científicas estamos aprendiendo? ¿Cómo podemos hacer tales comparaciones máximamente informativas sobre las preguntas que nos motivan, es decir, preguntas sobre cómo funciona el mundo?


Comparar y contrastar los enfoques prominentes para vincular la estructura y el análisis de mediación causal. Esa comparación nos lleva a una discusión de la perspectiva de nuestro marco sobre la extrapolación. Esto es particularmente importante a la luz del argumento, presentado por algunos críticos, de que una consecuencia no deseada de la revolución de la credibilidad ha sido empujar a los académicos a centrarse en los datos de entornos muy localizados, lo que limita nuestra capacidad de aprender sobre principios más generales.


Vincular la teoría y lo empírico. Se centra en un objetivo de investigación en la realidad u objeto de estudio para abreviar. Un objeto es parte del universo real sobre el que estamos tratando de aprender, ya sea con teoría o empíricamente. Un modelo toma como objeto las leyes de la naturaleza, al igual que un estudio empírico que relaciona los resultados sintéticos de una teoría. Del mismo modo, la investigación teórica o empírica sobre los eventos de procesos tienen como objetivo la predicción en contextos reales.


Los modelos teóricos y los diseños de investigación empírica, por supuesto, son distintos al objeto en lo real. Pero cada uno, a su manera, intenta representar el objeto. Así que nuestra visión desde las alturas del bosque, debe aclarar un poco sobré lo que significa para los modelos teóricos y los diseños de investigación empírica representar objetos del mundo real. Una vez que podamos ver más claramente cómo los modelos y los diseños experimentales se relacionan con el mundo, también obtendremos algo de claridad sobre cómo se relacionan entre sí.   


Comencemos con los modelos y la idea de similitud[10]. La investigación teórica implica tratar de explicar un objeto del mundo real mediante la representación de algunas características de ese objeto. Para ello, el modelo característico de ese objeto, en un sentido debe ser aclarado en lo similar al objeto real. La palabra modelo recuerda a los modelos formales de elección racional, y esos son un ejemplo paradigmático de la idea. Pero las nociones de representación y similitud se aplican más ampliamente. Se pueden aplicar a otras formalizaciones, incluidos los modelos computacionales y los esquemas conceptuales para formalizar relaciones causales desde una experiencia sintética. Y se aplican a una variedad de enfoques para teorizar informalmente, por ejemplo, el modelo de opinión pública.


Los modelos son siempre simplificaciones, ignorando gran parte de lo que está sucediendo en el objeto. A menudo hacen suposiciones que son demostrables parcialmente falsas como descripciones del mundo. Entonces, ¿cómo podrían ser útiles para la explicación teórica? La respuesta viene de desarrollar la noción de similitud, que da sustento a la práctica. Un modelo está destinado a ser similar a el objeto de una manera muy particular. Ciertos actores, situaciones y mecanismos análogos en el destino. Las llamamos las características representacionales del modelo. No todo en el modelo está destinado a ser representacional. Cualquier modelo teórico tiene características auxiliares que no son descriptivas del objeto, pero ayudan con la manejabilidad o simplificación necesaria para que ese conocimiento sea ingeniería. Las notificaciones sobre las entidades de representación definen las condiciones de ámbito del modelo. 


El análisis de un modelo produce implicaciones sobre las relaciones entre los objetos del modelo. Algunas de esas implicaciones dependen de las entidades de representación, pero son robustas para los cambios en las entidades auxiliares. Esas implicaciones son adecuadas para evaluar la similitud del modelo y el objeto. A esto lo llamamos las implicaciones pertinentes y necesarias para el progreso de una tecnología. La idea clave es que, si la similitud es cierta, entonces las implicaciones pertinentes del modelo deben reflejarse en el objeto real. Si, por el contrario, la implicación teórica depende crucialmente de una característica auxiliar del modelo que no es plausible similar al mundo, entonces no hay razón para esperar ver la implicación reflejada en el mundo como una herramienta de predicción que desarrolla tecnología.


Confrontar la similitud teórica y empírica sobre un objeto del mundo real. No son solo los modelos teóricos los que están vinculados al mundo a través de la similitud. La investigación empírica implica un diseño experimental, también vinculado a un objeto del mundo real a través de una relación de similitud. El diseño de la investigación utiliza diversas medidas y procedimientos estadísticos para estimar alguna relación de interés. La similitud del diseño de la investigación con el mundo tiene dos aspectos. En primer lugar las medidas utilizadas deben representar significativamente las características relevantes del objetivo, es decir, deben tener lo que se llama validez de medición[11]. En segundo lugar, el diseño experimental proporciona buenas estimaciones de la relación de interés solo bajo ciertos supuestos. Esas suposiciones deberían describir plausiblemente el objetivo. Si ambos aspectos de la relación de similitud son ciertos, entonces las estimaciones generadas por el diseño reflejan la relación especificada entre las características relevantes del mundo.


Podemos vincular la teoría y los empíricos entre sí cuando hay cierta superposición en el conjunto de objetos a los que apuntan. En tal caso, podemos aprender acerca de la similitud comparando las implicaciones generadas por los modelos teóricos con las estimaciones generadas por los diseñadores empíricos. Si un modelo teórico es similar a un objeto del mundo real, entonces las implicaciones pertinentes del modelo deben reflejarse en el objeto. Si un diseño experimental empírico es similar a un objeto del mundo real, luego las estimaciones que salen del diseño de la investigación reflejan las relaciones entre las características relevantes del objeto. Así que si ambas relaciones de similitud se mantienen, tenemos razones para esperar un acuerdo entre las implicaciones teóricas y las estimaciones empíricas. Y a la inversa, el desacuerdo nos da alguna razón para dudar de la combinación de esas afirmaciones de similitud. 


Pero cuán informativo es el desacuerdo o acuerdo, depende de si las estimaciones empíricas son conmensurables, es decir, si la relación con el objeto que está siendo descrito por la teoría y la relación que está siendo descrito por los empíricos son la misma relación. Como tal, la conmensurabilidad dice que los hallazgos empíricos son máximamente informativos sobre la similitud cuando los diseños experimentales ofrecen estimaciones empíricas de relaciones análogas al modelo teórico. 


Nuestro objetivo científico es acumular conocimiento de los mecanismos que explican fenómenos naturales importantes. Como tal, lo que realmente queremos aprender es la relación de similitud entre los modelos teóricos y el mundo real[12]. 


0.3 Modelado matemático de sistemas biológicos 


La biología de sistemas adopta un enfoque interdisciplinario para el estudio sistemático de interacciones complejas en sistemas biológicos. Este enfoque busca descifrar los comportamientos emergentes de sistemas complejos en lugar de centrarse solo en sus propiedades constituyentes. Con el objetivo de comprender las interacciones dinámicas entre los componentes de una célula y entre las células, así como su interacción con el medio ambiente, la biología de sistemas es un enfoque mediante el cual se abordan cuestiones biomédicas mediante la integración de experimentos en ciclos iterativos con modelos matemáticos, simulación y teoría. El modelado no es el objetivo final, sino una herramienta para aumentar la comprensión del sistema, desarrollar experimentos más dirigidos y, finalmente, permitir predicciones. Los modelos matemáticos tienen la ventaja de ser cuantitativos e interactivos en lugar de únicamente descriptivos. El proceso mediante el cual se formulan los modelos, que puede incluir la representación de efectos genéticos, epigenéticos, celulares y tisulares en las diversas escalas físicas y temporales durante la tumorigénesis, ayuda a articular hipótesis y, por lo tanto, apoya el diseño de experimentos apropiados para probarlas[13]. Las definiciones más populares de biología de sistemas se refieren a dinámicas, mecanismos, principios y comportamientos. La complejidad de los sistemas y/o funciones biológicos surge de la interacción de una observación de fenómenos y componentes espacio-temporales no lineales. El hecho de que la mayoría de los procesos celulares, como el control del ciclo celular, la diferenciación celular y la apoptosis, sean inherentemente dinámicos, destaca la necesidad de integrar modelos matemáticos en las ciencias de la vida y la investigación clínica. Un enfoque de biología de sistemas puede ayudar a identificar y analizar los principios, leyes y mecanismos subyacentes al comportamiento de los sistemas biológicos. En biología de sistemas, los argumentos surgen sobre las predicciones y la validez de las teorías, los métodos de recopilación de datos y la interpretación de conjuntos de datos experimentales. El papel del modelado matemático dentro del campo de la biología de sistemas, mediando la interpretación de datos experimentales y ayudando a la formulación de hipótesis. Una garantía es la justificación que explica la relación de los datos con la hipótesis (afirmación). A menudo, las garantías se basan en supuestos contextuales que solo se reconocen tácitamente. Los calificadores expresan los límites de la validez del reclamo. Los argumentos surgen cuando se intenta refutar, ya sea atacando la validez de los datos o la validez de la orden judicial. El modelado matemático encaja en la filosofía de argumentación de Toulmin[14]. La principal razón por la que se necesita el modelado en las ciencias de la vida es la complejidad de los sistemas naturales. El número de componentes realmente no juega un papel particular en esto. Tener muchas moléculas o células interactuando no es un problema como tal. Sin embargo, el número de diferentes tipos de componentes constituye un desafío para la teoría de los sistemas no lineales, que hasta el día de hoy se práctica solo para un puñado de variables del sistema. 


El hecho de que una molécula y su forma modificada (digamos por fosforilación) requieran ya dos variables de sistemas en un modelo de ecuaciones diferenciales, muestra que los sistemas con diez o veinte especies moleculares pueden volverse bastante difíciles de manejar. También se deben agregar las dificultades para dar cuenta de los fenómenos espaciales. Si bien, dominan los modelos basados ??en ecuaciones diferenciales ordinarias, en la actualidad no es práctico formular modelos de ecuaciones diferenciales parciales e identificar sus parámetros a partir de datos experimentales. La no linealidad en las interacciones y el comportamiento resultante es otro elemento importante de complejidad, un obstáculo y una fuente de sorpresa. Sin embargo, lo más importante es el hecho de que un sistema natural cambia, se adapta y evoluciona constantemente, lo que dificulta el uso de enfoques que asuman estacionariedad e invariancias en el tiempo. Un sistema vivo, como una célula, un tejido, un órgano u organismo, actúa y reacciona; responde y modifica su entorno. Las células, como los organismos, se someten a un proceso continuo de interacción y cambios mutuos. Un sistema vivo está limitado por su entorno, pero también cambia su entorno. Esta autorreferencia y los fenómenos que surgen posteriormente son la verdadera causa de problemas para el modelador. 


Si bien el modelado matemático (especialmente de sistemas dinámicos) es un elemento central de la biología de sistemas, el campo de la bioinformática tiene más qué ver con el análisis de datos e información, ya sea directamente de experimentos o de bases de datos. Ambas áreas son complementarias y dependen la una de la otra. Por ejemplo, para simular una vía de señalización, la construcción del modelo se beneficia del conocimiento sobre las propiedades estructurales, por ejemplo, los sitios de fosforilación, de una proteína. Esto se puede encontrar en bases de datos utilizando métodos y herramientas bioinformáticas. Para muchos sistemas, no podemos desarrollar modelos mecanicistas detallados debido a la falta de datos cuantitativos del curso del tiempo. No obstante, con la ayuda de la bioinformática se pueden analizar bases de datos para ayudar a formular y verificar hipótesis sobre redes a un nivel superior de abstracción. Se deben reconocer los desafíos del modelado mecanicista y el papel complementario que desempeñan los métodos bioinformáticos en el tratamiento de la incertidumbre que surge de la complejidad de los sistemas en consideración.


Hay dos paradigmas dominantes que se utilizan en el modelado matemático de las redes de reacciones bioquímicas (pathways) en la biología de sistemas: el enfoque determinista, que utiliza simulaciones numéricas de ecuaciones diferenciales ordinarias no lineales (incluidos los modelos de acción de masas, ley de potencia o de Michaelis-Menten), y el enfoque estocástico basado en una ecuación maestra y simulaciones estocásticas. El modelado estocástico tiene una larga tradición en física, muestra cómo se puede formular un modelo estocástico que comprendan tanto las leyes deterministas como las fluctuaciones sobre ellas. A veces, estos modelos se denominan modelos "mesoscópicos". Considerando un sistema de puntos de masa que interactúan, las fluctuaciones en los sistemas de no equilibrio no surgen de una distribución de probabilidad del microestado inicial, sino que son generadas continuamente por las ecuaciones de movimiento de las moléculas. Si bien, los modelos estocáusticos mesoscópicos son conceptos teóricos atractivos, en un contexto práctico en el que dicho modelo (no lineal) y los valores de sus parámetros tendrían que extraerse de datos experimentales, nos enfrentamos a varios problemas (que son en parte una razón para el amplio uso de las ecuaciones diferenciales).


Podemos ilustrar las nociones de microscópico, mesoscópico y macroscópico en el contexto de la biología celular considerando la expresión génica, el proceso por el cual la información del genoma se transcribe primero en ARN antes de traducirse en proteínas. Estas dos etapas involucran dos niveles, la transcripción de un gen es microscópica en comparación con las fluctuaciones en la concentración de la proteína para la cual el gen codifica la información. Mientras que para el inicio de la transcripción, digamos a través de la unión de factores de transcripción, un modelo estocástico discreto puede ser apropiado, los cambios en las concentraciones de las proteínas involucradas en la función de una sola célula (p. Ej., Ciclo celular) pueden ser por otro lado descrito macroscópicamente por ecuaciones diferenciales ordinarias. Sin embargo, eso solo es válido si los efectos de eventos aleatorios discretos en el nivel de transcripción no se propagan al nivel de traducción. Cuando eso suceda, el modelo continuo que describe los cambios en las concentraciones de proteínas también debe ser estocástico y tomará la forma de la llamada "ecuación de Langevin".


En muchas situaciones, las fluctuaciones aleatorias son lo suficientemente pequeñas como para ignorarlas, lo que permite que las ecuaciones macroscópicas predigan el comportamiento de un sistema con gran precisión. Las células, sin embargo, son sistemas abiertos, donde el entorno puede forzarlas a un estado de no equilibrio estacionario en el que la dinámica del sistema se bifurca, la dirección tomada depende de las fluctuaciones específicas que ocurren. Tenga en cuenta que, por lo tanto, la aleatoriedad de las fluctuaciones (que solo se puede describir en términos de probabilidades) influye de manera más crítica en el comportamiento del sistema de ecuaciones macroscópicas en puntos de bifurcación específicos, mientras que otras áreas del espacio de estados pueden aproximarse perfectamente mediante ecuaciones macroscópicas. El ruido intrínseco de las fluctuaciones térmicas o el control transcripcional podría determinar cómo el sistema a nivel macroscópico atraviesa una bifurcación. Al observar una población de células genéticamente idénticas en un entorno homogéneo, esto conduce a la variabilidad de los estados celulares que bien pueden ser explotados por el sistema biológico[15]. El contexto obvio en el que la aleatoriedad tiene una función está generando diversidad en la evolución. Al observar un solo gen en una sola célula, el inicio de la transcripción en su sitio promotor es impulsado por la asociación y disociación de un número muy pequeño de moléculas. Este número muy bajo de copias de moléculas tiene dos consecuencias: el tiempo de los eventos de reacción se puede describir solo en términos de probabilidades, y los cambios en el número de moléculas son discretos, sin una tendencia obvia que pueda aproximarse con una ecuación diferencial[16]. Sin embargo, la expresión de un gen cumple una función celular como el crecimiento, la diferenciación y la apoptosis. Por ejemplo, en respuesta a estímulos externos, la célula puede producir grandes cantidades de una proteína. Esta respuesta, medida como un cambio de concentración aparentemente suave/monótono, se describe adecuadamente mediante ecuaciones diferenciales. Por tanto, se ignoran las pequeñas fluctuaciones en torno a una tendencia/media obvia. En este nivel, estamos apuntando a una descripción de una vía que actúa como interruptor, filtro, oscilador o amplificador, estudiando el comportamiento de la red en términos de su robustez, capacidad de respuesta y sensibilidad del modelo a cambios en los parámetros, transiciones entre estados estacionarios. y bifurcaciones. Una suposición habitual en tales modelos de ecuaciones de tasa es que los parámetros (coeficientes de tasa) son constantes. Dado que estos parámetros están implícitamente vinculados a variables ambientales, como la temperatura, el nivel de pH o el balance hídrico, las fluctuaciones en estos se consideran insignificantes. El arte de modelar es entonces decidir en el contexto dado , qué enfoque de modelado o combinación de enfoques es más apropiado. 


0.4 Punto de partida 


La biología es el estudio de los seres vivos; La mecánica es el estudio de los movimientos y las cargas aplicadas que los provocan. La biomecánica se puede definir, por tanto, como el estudio de los movimientos que experimentan los seres vivos en respuesta a las cargas aplicadas. Aquí, sin embargo, consideramos que la biomecánica es el desarrollo, extensión y aplicación de la mecánica con el propósito de comprender mejor la influencia de las cargas aplicadas en la estructura, propiedades y función de los seres vivos y las estructuras con las que interactúan. Por tanto, el dominio de la biomecánica es muy amplio. Incluye, entre muchas otras cosas, el estudio de los efectos de las cargas de viento o la gravedad en el crecimiento de las plantas, las propiedades mecánicas de los alimentos, el vuelo de las aves, las propiedades reductoras del arrastre de la piel de los delfines y el rendimiento atlético humano. Además, la biomecánica aborda muchos problemas de salud, así como enfermedades, lesiones y su tratamiento tanto en humanos como en animales. Esta será nuestra principal motivación aquí; por lo tanto, es fácil ver que la biomecánica es fundamental para el campo de rápido crecimiento de la ingeniería biomédica. No es posible identificar a un verdadero "padre de la biomecánica", pero muchos apuntan a Leonardo da Vinci (1452-1519) o Galileo Galilei (1564-1642). Entre muchas otras cosas, da Vinci estaba interesado en un medio por el cual el hombre pudiera volar y, con este fin, estudió la mecánica del vuelo de los pájaros. El intento de la humanidad de basar el diseño de sistemas de ingeniería en la forma en que la naturaleza hace algo (por ejemplo, la estructura de panal dentro de una colmena o el sistema de radar de un murciélago) se llama biónica, que sigue siendo un área muy importante dentro de la biomecánica. A diferencia de da Vinci, Galileo estaba interesado en la fuerza intrínseca de los huesos y, en particular, su relación con el diseño estructural de los huesos. Basado en un análisis preliminar, sugirió que los huesos son huecos, por esto mejora la relación resistencia-peso. Claramente, entonces, la biomecánica se enfoca tanto en el diseño como en el análisis, cada uno de los cuales es fundamental para la ingeniería. Saltando hacia el final del siglo XIX, Wilhelm Roux propuso la idea de un "mecanismo de autorregulación cuantitativo" que da como resultado la adaptación funcional de tejidos, órganos y organismos, una idea que era consistente con el concepto de una organización mediada por estrés de la microestructura del hueso que fue presentada por Julius Wolff en 1884. Brevemente, Wolff sugirió que la estructura fina dentro de los huesos (es decir, trabéculas orientadas) está gobernada por líneas de tensión que resultan de las cargas aplicadas. Aunque su análisis no fue correcto, la idea básica fue sumamente importante. De hecho, volveremos muchas veces a esta observación de que las cargas mecánicas controlan la estructura y función de los tejidos, lo que ha dado lugar a un área de investigación muy importante llamada mecanobiología. Muchos otros sabios estaban interesados ??en aplicaciones biomecánicas. Entre ellos se encuentran R. Hooke (1635-1703), L. Euler (1707-1783), T. Young (1773-1829), J.L.M. Poiseuille (1799–1869) y H. von Helmholtz (1821–1894). A pesar del calibre de los científicos que han buscado respuestas en biomecánica a lo largo de los siglos, nuestro campo no se desarrolló realmente hasta mediados de la década de 1960. Aunque los historiadores probablemente discutirán sobre las razones de esto, se sugiere aquí que cinco desarrollos casi simultáneos proporcionaron tanto una mayor motivación como una mayor capacidad en biomecánica. Recuerde que la década de 1960 fue la década de la búsqueda de la Luna por parte de la humanidad. Ante la pregunta, "¿Cómo responderá el hombre a las cargas alteradas asociadas con los viajes espaciales, incluida una carga gravitacional reducida en la Luna?", La medicina clínica no pudo proporcionar las respuestas, ya que se basa principalmente en observaciones. Por lo tanto, se necesitaba una ciencia predictiva que se centrara en cómo responde el cuerpo a las cargas mecánicas. Además, tenga en cuenta que gran parte de la biomecánica se ocupa de la respuesta de los tejidos blandos (es decir, tejidos distintos de los huesos y los dientes). Se sabe desde hace mucho tiempo que los tejidos blandos exhiben comportamientos no lineales complejos que no podrían ser descritos por la mecánica clásica de los continuos desarrollados en los siglos XVIII y XIX. Más bien, la biomecánica tuvo que esperar el renacimiento posterior a la Segunda Guerra Mundial en la mecánica del continuo (1948-1965) a través del cual las teorías no lineales lograron una base más completa y racional. Durante este mismo período, de los años 50 a los 60, los desarrollos tecnológicos dieron lugar a la computadora digital. Las computadoras son esenciales en biomecánica para resolver muchos problemas importantes pero complejos de límites y valores iniciales, para controlar experimentos complicados y para realizar análisis no lineales de los datos. Paralelamente al desarrollo de las computadoras, se produjo el avance de poderosos métodos numéricos de análisis, incluido el método de elementos finitos, que se introdujo en 1956 y se ha convertido en una herramienta estándar en el arsenal del biomecánico para atacar problemas básicos y aplicados. Finalmente, no es casualidad que la biomecánica surgiera en el momento en que nació la biología moderna, que se debió en gran parte a la identificación en la década de 1950 de la estructura básica de las proteínas (por L. Pauling) y el ADN (por J. Watson y F. Crick). En resumen, las décadas de 1950 y 1960 proporcionaron nuevas motivaciones importantes, así como avances teóricos, experimentales y tecnológicos que permitieron el surgimiento de la biomecánica. Esto es, por supuesto, solo una sinopsis de algunos de los desarrollos históricos esenciales. Se anima al lector interesado a indagar más en la historia de nuestro campo. Aunque la biomecánica abarca una amplia gama de temas, los propósitos de este libro son dos: primero, presentar conceptos fundamentales y resultados de la mecánica de sólidos y fluidos que se pueden aplicar a muchos problemas diferentes de importancia en biología y medicina y, segundo, ilustrar algunas de las muchas aplicaciones posibles al centrarse en la mecánica de la salud, las enfermedades y las lesiones humanas. Por lo tanto, para motivar aún más nuestro estudio, revisemos brevemente algunos de los muchos casos en los que la biomecánica puede y debe contribuir al avance de la atención médica. 


0.5 Introducción a los mecanismos 


En muchos campos de la ciencia, lo que se considera una explicación satisfactoria requiere proporcionar una descripción de un mecanismo. Por tanto, no es sorprendente que gran parte de la práctica de la ciencia pueda entenderse en términos del descubrimiento y descripción de mecanismos. Nuestro objetivo es esbozar un enfoque mecanicista para analizar la biología molecular que se basa en detalles de la práctica científica, un enfoque que bien puede aplicarse a otros campos científicos. Los mecanismos se han invocado en muchas ocasiones y lugares en la filosofía y la ciencia. Una búsqueda por palabra clave "mechanisms" para 2021 en títulos y resúmenes de Nature encontró 288,246 resultados.  Sin embargo, en nuestra opinión, no existe un análisis adecuado de qué son los mecanismos y cómo funcionan en la ciencia. Comenzamos con un análisis dualista del concepto de mecanismo en términos tanto de las entidades como de las actividades que los componen. Estos argumentos no se desarrollan en detalle, pero deberían ser suficientes para mostrar cómo pensar en los mecanismos proporciona un enfoque distintivo a muchos problemas en la ciencia. Sin embargo, hacemos algunas advertencias rápidamente. Primero, usamos "mecanismo" porque la palabra se usa comúnmente en ciencia. Pero como detallaremos con mayor precisión, no se debe pensar en los mecanismos como sistemas exclusivamente mecánicos (push-pull). Lo que cuenta como un mecanismo en la ciencia se ha desarrollado con el tiempo y presumiblemente seguirá haciéndolo. En segundo lugar, limitaremos nuestra atención a los mecanismos de la biología. No afirmamos que todos los científicos busquen mecanismos o que todas las explicaciones sean descripciones de mecanismos. Sospechamos que este análisis es aplicable a muchas otras ciencias, y tal vez incluso a mecanismos cognitivos o sociales, pero lo dejamos como una cuestión abierta. Por último, muchos de nuestros puntos se enuncian solo de manera provocativa y breve. Creemos que hay argumentos completos para estos puntos, pero detallarlos aquí oscurecería la visión general. 


0.5.1 Mecanismos


Se buscan mecanismos para explicar cómo se produce un fenómeno o cómo funciona algún proceso significativo. Específicamente:


Los mecanismos son entidades y actividades organizadas de manera que produzcan cambios regulares desde el inicio o la configuración hasta el final o las condiciones de terminación. 


Por ejemplo, en el mecanismo de la neurotransmisión química, una neurona presináptica transmite una señal a una neurona postsináptica liberando moléculas de neurotransmisores que se difunden a través de la hendidura sináptica, se unen a los receptores y despolarizan la célula postsináptica. En el mecanismo de replicación del ADN, la doble hélice del ADN se desenrolla, exponiendo bases ligeramente cargadas a las que se unen bases complementarias, produciendo, después de varias etapas más, dos hélices duplicadas. Las descripciones de los mecanismos muestran cómo las condiciones de terminación son producidas por las condiciones de configuración y las etapas intermedias. Dar una descripción de un mecanismo de un fenómeno es explicar ese fenómeno, es decir, explicar cómo se produjo. Los mecanismos se componen de entidades (con sus propiedades) y actividades. Las actividades son las productoras de cambio. Las entidades son las cosas que participan en actividades. Las actividades generalmente requieren que las entidades tengan tipos específicos de propiedades. El neurotransmisor y el receptor, dos entidades, se unen, una actividad, en virtud de sus propiedades estructurales y distribuciones de carga. Una base de ADN y un enlace de hidrógeno de base complementaria debido a sus estructuras geométricas y cargas débiles. La organización de estas entidades y actividades determina las formas en que producen el fenómeno. Las entidades a menudo deben estar ubicadas, estructuradas y orientadas de manera adecuada, y las actividades en las que se involucran deben tener un orden, una tasa y una duración temporales. Por ejemplo, dos neuronas deben estar espacialmente próximas para la difusión del neurotransmisor. Los mecanismos son regulares en el sentido de que funcionan siempre o en su mayor parte de la misma manera en las mismas condiciones. La regularidad se exhibe en la forma típica en que el mecanismo corre de principio a fin; lo que lo hace regular es la continuidad productiva entre etapas. Las descripciones completas de los mecanismos exhiben una continuidad productiva sin brechas desde la configuración hasta las condiciones de terminación. Las continuidades productivas son las que hacen inteligibles las conexiones entre etapas. Si un mecanismo está representado esquemáticamente por Imagen, entonces la continuidad radica en las flechas y su explicación está en términos de las actividades que representan las flechas. Una flecha faltante, es decir, la incapacidad de especificar una actividad, deja un vacío explicativo en la continuidad productiva del mecanismo. No somos los únicos que pensamos que el concepto de "mecanismo" es fundamental para una comprensión filosófica adecuada de las ciencias biológicas. Otros han defendido la importancia de los mecanismos en biología[17]. Wimsatt, por ejemplo, dice que, “al menos en biología, la mayoría de los científicos ven su trabajo cómo explicar tipos de fenómenos mediante el descubrimiento de mecanismos[18]...". Schaffner a menudo señala la importancia de los mecanismos en biología y medicina, pero argumenta, siguiendo a Mackie, que hablar de mecanismos causales depende de un discurso previo y más fundamental sobre las "leyes del trabajo[19]”. En otra parte, Schaffner afirma que "mecanismo", tal como lo utilizan Wimsatt y otros, es un "término no analizado" que desea evitar. La noción de "mecanismo" ha sido analizado típicamente en términos de la descomposición de sistemas en sus partes e interacciones[20]". Siguiendo esta tradición "interaccionista", Glennan define un mecanismo de la siguiente manera: un mecanismo subyacente a un comportamiento es un sistema complejo que produce ese comportamiento... la interacción de varias partes de acuerdo con leyes causales directas[21].


Afirma que todas las leyes causales se explican proporcionando un mecanismo de nivel inferior hasta que uno toca fondo en las leyes fundamentales no causales de la física. Consideramos que la confianza de Glennan en el concepto de "ley" es problemática porque, en nuestros ejemplos, rara vez hay "leyes causales directas" para caracterizar cómo operan las actividades. Más importante aún, nos parece que la confianza del interaccionista en las leyes y las interacciones deja fuera la naturaleza productiva de las actividades. Nuestra forma de pensar enfatiza las actividades en los mecanismos. El término "actividad" trae consigo las connotaciones apropiadas de su uso estándar; sin embargo, tiene la intención de ser un término técnico. Por lo general, una actividad se designa mediante un verbo o una forma verbal (participios, gerundios, etc.). Las actividades son las productoras de cambio. Son constitutivos de las transformaciones que producen nuevos estados de cosas o nuevos productos. La referencia a las actividades están motivada por preocupaciones ónticas, descriptivas y epistemológicas. Justificamos esta ruptura con la parsimonia, este dualismo de entidades y actividades, por referencia a estas necesidades filosóficas. 


0.5.2 Estado óntico de los mecanismos


Tanto las actividades como las entidades deben estar incluidas en una adecuada cuenta óntica de mecanismos. Nuestro análisis del concepto de mecanismo es explícitamente dualista. Estamos intentando captar las intuiciones filosóficas saludables que subyacen a las ontologías sustantivistas y de proceso. Las sustantivistas limitan su atención a entidades y propiedades, asumen que es posible reducir la narrativa de sus actividades a hablar de propiedades y sus transiciones. Sustantivistas hablan así de entidades con capacidades[22] o disposiciones para actuar. Sin embargo, para identificar la capacidad de una entidad, primero se deben identificar las actividades en las que participa esa entidad. No se sabe que la aspirina tiene la capacidad de aliviar un dolor de cabeza a menos que se sepa que la aspirina produce alivio del dolor de cabeza. Los sustantivistas también hablan sobre interacciones de entidades o sus transiciones de estado. Creemos que las transiciones de estado deben describirse de manera más completa en términos de las actividades de las entidades y cómo esas actividades producen cambios que constituyen la siguiente etapa. Lo mismo ocurre con el habla de interacciones, que enfatiza las intersecciones espacio-temporales y los cambios en las propiedades sin caracterizar la productividad por la cual esos cambios se efectúan en esas intersecciones. Los sustantivistas enfocan apropiadamente la atención sobre las entidades y propiedades en los mecanismos, por ejemplo, el neurotransmisor, el receptor y sus configuraciones de carga o bases de ADN y sus débiles polaridades. Son las entidades las que realizan actividades, y lo hacen en virtud de algunas de sus propiedades. Esta es la razón por la que son las relaciones de relevancia estadística[23]  entre las propiedades de las entidades en un momento y las propiedades de las entidades en otro (o generalizaciones que establecen relaciones "entrada-salida" y cambios de estado) son útiles para describir mecanismos. Sin embargo, es artificial y empobrecido describir los mecanismos únicamente en términos de entidades, propiedades, interacciones, entradas-salidas y cambios de estado a lo largo del tiempo. Los mecanismos hacen cosas. Son activos y, por lo tanto, deberían describirse en términos de las actividades de sus entidades, no simplemente en términos de cambios en sus propiedades. 


A diferencia de los sustantivistas, los ontólogos de procesos cosifican las actividades e intentan reducir las entidades a procesos[24]. Si bien la ontología de procesos reconoce la importancia de los procesos activos al tomarlos como unidades ontológicas fundamentales, su programa para la reducción de entidades es, en el mejor de los casos, problemático. Hasta donde sabemos, no hay actividades en neurobiología, biología molecular y nanobiología que no sean actividades de entidades. No obstante, los ontólogos de procesos destacan apropiadamente la importancia de los tipos activos de cambio. Hay tipos de cambios al igual que existen tipos de entidades. Estos diferentes tipos son reconocidos por la ciencia y son básicos para la forma en que funcionan las cosas. Las actividades se identifican e individualizan de la misma manera que las entidades. Tradicionalmente, uno identifica e individualiza entidades en términos de sus propiedades y ubicación espacio-temporal. Asimismo, las actividades pueden identificarse e individualizarse por su ubicación espacio-temporal. También pueden ser individualizadas por su tasa, duración, tipos de entidades y tipos de propiedades que participan en ellas (causales). Las condiciones de individuación más específicas pueden incluir su modo de operación (p. Ej., acción de contacto versus atracción a distancia), direccionalidad (p. Ej., lineal versus en ángulo recto), polaridad (atracción versus atracción y repulsión), requerimientos de energía (p. Ej., cuánta energía se requiere para formar o romper un enlace químico), y el rango de actividad (por ejemplo, las fuerzas electromagnéticas tienen una influencia más amplia que las fuerzas fuertes y débiles en el núcleo). A menudo, generalizaciones o las leyes son enunciados cuyos predicados se refieren a las entidades y propiedades que son importantes para la individuación de las actividades. Los mecanismos son identificados e individualizados por las actividades y entidades que los constituyen, por sus condiciones de inicio y finalización, y por sus roles funcionales. Las funciones son los roles que desempeñan las entidades y actividades en un mecanismo. Ver una actividad como una función es verla como un componente de algún mecanismo, es decir, verla en un contexto que se considera importante, vital o significativo de alguna otra manera. Es común hablar de funciones como propiedades "poseídas por" entidades, como cuando se dice que el corazón "tiene" la función de bombear sangre o el canal "tiene" la función de bloquear el flujo de sodio. Esta forma de hablar refuerza la tendencia sustantivista contra la que hemos estado argumentando. Las funciones, más bien, deben entenderse en términos de las actividades en virtud de las cuáles las entidades contribuyen al funcionamiento de un mecanismo. Es más apropiado decir que la función del corazón es bombear sangre y así entregar (con la ayuda del resto del sistema circulatorio) oxígeno y nutrientes al resto del cuerpo. Del mismo modo, una función de los canales de sodio es la puerta de la corriente de sodio en la producción de potenciales de acción. En la medida en que la actividad de un mecanismo en su conjunto contribuya a algo en un contexto que se considere previamente importante, vital o de otra manera significativa, esa actividad también puede considerarse como la (o una) función del mecanismo como en su conjunto[25]. Las entidades y un subconjunto específico de sus propiedades determinan las actividades en las que pueden participar. Por el contrario, las actividades determinan qué tipos de entidades (y qué propiedades de esas entidades) son capaces de ser la base de tales actos. Dicho de otra manera, las entidades que tienen ciertos tipos de propiedades son necesarias para la posibilidad de actuar de ciertas formas específicas, y ciertos tipos de actividades solo son posibles cuando hay entidades que tienen ciertos tipos de propiedades. Las entidades y actividades son correlativas. Son interdependientes. Una descripción ónticamente adecuada de un mecanismo incluye ambos. 


0.5.3 Actividades y causas


Las actividades son tipos de causas. Términos como "causar" e "interactuar" son términos abstractos que deben especificarse con un tipo de actividad y, a menudo, así se especifican en el discurso científico típico. Bugajak (2011) señaló que la palabra "causar" en sí misma es muy general y solo adquiere significado cuando se completa con otros verbos causales más específicos, por ejemplo, raspar, empujar, secar, transportar, comer, quemar, derribar[26]. Una entidad actúa como causa cuando se dedica a una actividad productiva. Esto significa que se puede decir que los objetos simplificados, o incluso los tipos naturales, son causas solo en un sentido derivado. No es la penicilina lo que hace que desaparezca la neumonía, sino lo que hace la penicilina. 


El intento de Mackie de analizar la necesidad de la causalidad en términos de las leyes del trabajo es similar a nuestro análisis en muchos aspectos[27]. Esto enfatiza que las leyes del trabajo deben descubrirse empíricamente y no se encuentran a priori. También afirma que los contrafactuales están respaldados por la evidencia inductiva de que tales procesos básicos están en funcionamiento. Sin embargo, quiere analizar la causalidad en términos de continuidad cualitativa o estructural de procesos, y más vagamente en términos de "fluir desde" o "extruir[28]". No está claro cómo aplicar tales conceptos en nuestros casos biológicos. Pero tal vez se están tratando de usarlos para referirse a lo que llamamos "actividades" y para captar lo que entendemos por "productividad". 


Nuestro énfasis en los mecanismos es compatible, de alguna manera, con la filosofía mecánica de Salmon, ya que los mecanismos se encuentran en el corazón de la filosofía mecánica[29]. Los mecanismos, para Salmon, se componen de procesos (cosas que exhiben consistencia de características a lo largo del tiempo) e interacciones (intersecciones espacio-temporales que involucran cambios persistentes en esos procesos). Es apropiado comparar nuestra narrativa de actividades con la de interacciones de Salmon. Salmon identifica interacciones en términos de marcas transmitidas y relaciones de relevancia estadística y, más recientemente, en términos de intercambio de cantidades conservadas[30]. Aunque reconocemos la posibilidad de que el análisis de Salmon pueda ser todo lo que hay para ciertos tipos fundamentales de interacciones en física, su análisis guarda silencio en cuanto al carácter de la productividad en las actividades investigadas por muchas otras ciencias. La mera narrativa sobre la transmisión de una marca o el intercambio de una cantidad conservada no agota lo que estos científicos saben sobre las actividades productivas y sobre cómo las actividades efectúan cambios regulares en los mecanismos. Por ejemplo, gran parte de lo que hacen los neurobiólogos y biólogos moleculares debe verse como un esfuerzo por comprender estos diversos tipos de producción y las formas en que funcionan. 


0.5.4 Actividades y leyes


La noción tradicional de una ley universal de la naturaleza tiene pocas aplicaciones, si es que tiene alguna, en neurobiología o biología molecular. A veces, las leyes pueden describir la regularidad de las actividades. A veces no pueden. Por ejemplo, la ley de Ohm se usa para describir aspectos de las actividades en los mecanismos de neurotransmisión. No existe ninguna ley que describa las regularidades de la unión de proteínas a regiones del ADN. No obstante, la noción de actividad conlleva algunos de los rasgos característicos asociados a las leyes. Las leyes se toman como regularidades determinadas. Describen algo que actúa de la misma manera bajo las mismas condiciones, es decir, misma causa, mismo efecto[31].  Es la misma forma en que hablamos de los mecanismos y sus actividades. Un mecanismo es la serie de actividades de las entidades que provocan las condiciones de terminación o terminación de forma regular. Estas regularidades no son accidentales y apoyan contrafactuales en la medida en que describen actividades. Por ejemplo, si se cambiara esta base única en el ADN y el mecanismo de síntesis de proteínas funcionara como de costumbre, entonces la proteína producida tendría un sitio activo que se une con más fuerza. Esta contrafactual justifica hablar de mecanismos y sus actividades con algún tipo de necesidad. No se realiza ningún trabajo filosófico postulando algo más, una ley, que suscribe la productividad de las actividades. En resumen, somos dualistas: tanto las entidades como las actividades constituyen mecanismos. No hay actividades sin entidades y las entidades no hacen nada sin actividades. Hemos argumentado a favor de la adecuación óntica de este dualismo al mostrar que puede captar los conocimientos tanto de los sustantivistas como de los ontólogos de procesos, al mostrar cómo se necesitan actividades para especificar el término "causa" y mediante un análisis de las actividades que muestra su regularidad y necesidad a veces caracterizada por leyes.


0.5.5 Actividades y leyes, jerarquías en bocetos 



Esquemas de mecanismo y bocetos. Los mecanismos ocurren en jerarquías anidadas y las descripciones de los mecanismos en neurobiología y biología molecular son frecuentemente de varios niveles. Los niveles de estas jerarquías deben considerarse como jerarquías de parte-todo con la restricción adicional de que las entidades, propiedades y actividades de niveles inferiores son componentes de mecanismos que producen fenómenos de niveles superiores[32]. Por ejemplo, la activación del canal de sodio es un componente del mecanismo de despolarización, que es un componente del mecanismo de neurotransmisión química, que es un componente de la mayoría de los mecanismos de nivel superior en el sistema nervioso central. Se pueden encontrar jerarquías similares en biología molecular. James Watson (1965) analiza los mecanismos para formar enlaces químicos fuertes y débiles, que son componentes de los mecanismos de replicación, transcripción y traducción de ADN y ARN, respectivamente, que son componentes de los mecanismos de numerosas actividades celulares[33]. 


0.5.6 Tocando fondo 


Las descripciones jerárquicas anidadas de los mecanismos suelen tocar fondo en los mecanismos de nivel más bajo. Estos son los componentes que se aceptan como relativamente fundamentales o se consideran no problemáticos para los propósitos de un científico, grupo de investigación o campo determinado. Tocar fondo es relativo: los diferentes tipos de entidades y actividades son donde un campo dado se detiene al construir mecanismos. La explicación llega a su fin y la descripción de los mecanismos de nivel inferior sería irrelevante para sus intereses. Además, la formación científica a menudo se concentra en o alrededor de ciertos niveles de mecanismos. Los neurobiólogos con diferentes intereses teóricos o experimentales tocan fondo en distintos tipos de entidades y actividades. Algunos neurobiólogos están interesados ??principalmente en el comportamiento de los organismos, algunos están interesados ??principalmente en las actividades de las moléculas que componen las células nerviosas y otros dedican su atención a los fenómenos intermedios. Los campos de la biología molecular y la neurobiología, no suelen retroceder al nivel cuántico para hablar de las actividades de, por ejemplo, los enlaces químicos. Rara vez los biólogos son impulsados ??por anomalías o por cualquier otra razón para llegar a niveles tan bajos, aunque algún problema podría requerirlo. Los niveles por debajo de las moléculas y los enlaces químicos no son fundamentales para los campos de la biología molecular, pero sí para la nanobiología[34]. 


Pero recuerde, lo que se considera el nivel de fondo puede cambiar. En biología molecular y neurobiología molecular, las jerarquías de mecanismos tocan fondo en las descripciones de las actividades de macromoléculas, moléculas más pequeñas  y de iones. Estos se reconocen comúnmente como entidades de fondo; creemos que hemos identificado los tipos más importantes de actividades de fondo. Estas actividades de fondo en biología pueden clasificarse en cuatro tipos: (i) geométrico-mecánico; (ii) electroquímica; (iii) enérgica; (iv) electromagnética. (i) Las actividades geométrico-mecánicas son aquellas familiares de la filosofía mecánica del siglo XVII. Incluyen encajar, girar, abrir, chocar, doblar y empujar. La rotación de la hélice alfa en el canal de sodio y el ajuste geométrico de un neurotransmisor y un receptor postsináptico son ejemplos de actividades geométrico-mecánicas. (ii) Atraer, repeler, unir y romper son tipos de actividad electroquímica. Los enlaces químicos, como la formación de enlaces covalentes fuertes entre los aminoácidos en las proteínas, es un ejemplo más específico. El acoplamiento de la cerradura y la llave de una enzima y su sustrato implica formas geométricas y tensiones mecánicas y atracciones químicas. Como veremos, el desarrollo histórico del mecanismo de síntesis de proteínas requirió encontrar una actividad para ordenar linealmente los constituyentes de la proteína, sus aminoácidos; una idea temprana que utilizaba principalmente actividades geométrico-mecánicas fue reemplazada por otra que involucraba, principalmente, las débiles actividades electroquímicas de los enlaces de hidrógeno. (iii) Las actividades energéticas tienen la termodinámica como fuente. Un tipo de actividad energética implica la simple difusión de una sustancia, como, por ejemplo, cuando las concentraciones en diferentes lados de una membrana conducen al movimiento de sustancias a través de la membrana. (iv) Las actividades electromagnéticas se utilizan ocasionalmente para tocar fondo a los mecanismos en estas ciencias. La conducción de impulsos eléctricos por las células nerviosas y los mecanismos de navegación de ciertas especies marinas son ejemplos.


La comprensión actual de las ciencias naturales básicas (incluidas la física y la química) se centra en la energía y la masa como aspectos principales de cualquier materia (material) del universo. La correlación entre la energía y la masa como dos aspectos principales de la materia ha sido descrita claramente a través de la ecuación de la relatividad de la energía y la masa de Albert Einstein. Sin embargo, aún, la posibilidad de almacenamiento de información en moléculas (incrustación de código en moléculas) queda por describir sistemáticamente como la tercera dimensión de la materia. Las biomoléculas como los ácidos nucleicos son modelos prometedores para la descripción de la posibilidad de almacenamiento de información en la materia (capacidad codificante de la materia). Aquí, primero discutimos los fundamentos de la química y la física en los sistemas vivos y no vivientes. Luego, al referirnos a la posibilidad de almacenamiento de información (código) en moléculas, introducimos el código como la tercera dimensión de la materia (por ejemplo, códigos incrustados en biomoléculas). Al considerar la capacidad de almacenamiento de información de las biomoléculas, describimos esta propiedad funcional tridimensional de las biomoléculas (y cualquier otra molécula programable) mediante la relatividad del código, la energía y la masa. De hecho, al aprender de las propiedades autónomas de los sistemas biológicos y recapitular la capacidad de codificación de las biomoléculas, definimos una nueva traducción de la ecuación de la relatividad como la relatividad del código, la energía y la masa. La relatividad del código, la energía y la masa como concepto emergente en las ciencias naturales revela la lógica molecular detrás de varias características de la naturaleza, incluidas las propiedades autónomas de los sistemas biológicos. Más allá de las ciencias biológicas, la aplicación de los principios básicos de la relatividad del código, la energía y la masa puede abrir nuevas vías hacia la generación de sistemas autónomos sintéticos con una amplia gama de aplicaciones en diferentes áreas de la ciencia, incluidas la informática, la energía, la física y las ciencias de nanomateriales.


0.6 Los sistemas biológicos son altamente autónomos 


Los organismos vivos son sistemas autónomos altamente avanzados. Por definición, una característica clave de la autonomía tanto en los sistemas naturales como en los artificiales está relacionada con la capacidad de funcionamiento independiente de los procesos[35]. Basado en la teoría del cataclismo cósmico, que es la teoría más popular sobre el origen del universo, hace unos 14 mil millones de años, el universo se formó como una erupción cataclísmica masiva de partículas subatómicas calientes y ricas en energía. La teoría sostiene que después de la erupción, el universo se expandió. A medida que pasaba el tiempo y la materia se enfriaba, comenzaron a formarse tipos más diversos de átomos que eventualmente se condensaron y produjeron estrellas y galaxias de nuestro universo actual, incluida la Tierra y todos sus elementos químicos[36]. Aunque el origen de la vida no se puede detectar con precisión, según la evidencia y los residuos de organismos similares a bacterias encontrados en la investigación geológica, se estima que la vida se inició en la tierra alrededor de 3.5 mil millones de años atrás. Incluso antes, hace casi 4 mil millones de años, existían componentes muy simples de la vida, como las moléculas funcionales primitivas. Con el tiempo, estas moléculas funcionales se conectaron entre sí y formaron formas de vida primitivas[37]. La biología es la ciencia natural que involucra el estudio de las propiedades físicas, químicas, funcionales y de desarrollo de la vida. Los organismos vivos (también llamados sistemas biológicos) se consideran sistemas autónomos de gran complejidad[38]. Como característica notable de la naturaleza, los sistemas biológicos poseen varios aspectos de autonomía[39]: 


1. Los sistemas biológicos se autoensamblan. El autoensamblaje es un proceso en el que un sistema desordenado con muchos componentes se convierte en una estructura ordenada y estable (en equilibrio con configuración mínima de energía) sin dirección externa. Por lo general, involucra solo los enlaces más débiles (por ejemplo, enlaces de hidrógeno e interacciones hidrofóbicas), lo que hace que la estructura del sistema sea más flexible. Un ejemplo de autoensamblaje en sistemas no vivos es la formación de cristales. El plegamiento de cadenas polipeptídicas en proteínas y ácidos nucleicos en sus formas funcionales son ejemplos de estructuras biológicas autoensambladas. 


2. Los sistemas biológicos se autoorganizan. La autoorganización significa que un sistema tiene la capacidad de ensamblar sus propias subunidades a través de múltiples capas y escalas de complejidad. El desarrollo embrionario es un ejemplo típico de procesos de autoorganización en sistemas biológicos[40]. Durante las primeras etapas del desarrollo embrionario, las células madre son capaces de ensamblar y formar estructuras muy específicas que crecen en tamaño y complejidad con el tiempo[41]. Si bien tanto los procesos de autoensamblaje como de autoorganización se refieren a la formación espontánea de una estructura ordenada, se pueden distinguir entre sí en diferentes aspectos. Mientras que el autoensamblaje llega a una configuración de equilibrio, la autoorganización aleja al sistema del equilibrio que requiere una infusión de energía para mantenerlo. Otra gran diferencia es la interacción. Si bien la interacción en el autoensamblaje es más elemental, lo que se remonta a la fuerza electromagnética, la interacción en la autoorganización es más compleja. El tamaño de la estructura resultante del autoensamblaje es principalmente mesoscópico, pero puede ser considerablemente mayor para la autoorganización[42]. En resumen, el autoensamblaje se puede observar tanto en sistemas vivos como no vivos, mientras que la autoorganización es una propiedad especial de los sistemas vivos. 


3. Los sistemas biológicos se auto-replican. La autorreplicación significa que un sistema puede producir una copia precisa de sí mismo. Todos los sistemas vivos, independientemente de su nivel de desarrollo, desde las bacterias más primitivas hasta los organismos eucariotas más desarrollados, pueden hacer una copia fiel de sí mismos.


4. Los sistemas biológicos son de autorreparación, significa que un sistema tiene la capacidad de regenerar directamente su propia parte dañada por sí mismo, independientemente de cualquier mediador u operador externo.  


5. Los sistemas biológicos se alimentan por sí mismos. Autoalimentación significa que un sistema tiene la capacidad de producir y absorber directamente sus propias necesidades energéticas de su entorno, sin la necesidad de ningún mediador u operador externo[43]. 


6. Los sistemas biológicos indican el comportamiento de la maquinaria en múltiples niveles de complejidad. Además del autoensamblaje y la autoorganización que conducen a la formación de estructuras altamente específicas, se pueden formar miles de maquinarias durante el progreso de un proceso de autoorganización en sistemas biológicos. A diferencia de cualquier otro sistema creado por el hombre, los sistemas biológicos están hechos de millones de maquinarias (módulos) a diferentes escalas, que van desde nano hasta micromecanismos y meso maquinarias, que se integran entre sí para formar módulos funcionales de un sistema biológico. Por ejemplo, ADN polimerasa hasta orgánulos celulares como el ribosoma como parte de la maquinaria de síntesis de proteínas, tejidos y órganos, por ejemplo, el riñón es una maquinaria muy avanzada de filtración.


7. Los sistemas biológicos son autocontrolados en su interacción con los factores ambientales. Autocontrol significa que un sistema tiene la capacidad de codificar, controlar y ejecutar su propio procesador[44]. Los sistemas biológicos aplican sensores y receptores moleculares muy especializados para la interacción dinámica con sus factores ambientales. Un ejemplo de comportamiento de autocontrol en un sistema biológico de entrelazamiento cuántico que incluye la capacidad de auto-navegación de las aves durante su vuelo migratorio. La existencia de proteínas magnetorreceptoras en sus ojos puede ser responsable de la capacidad de detectar el campo magnético de la tierra y usarlo para navegar en direcciones en destinos cortos y largos[45]; en la plasticidad de plantas para jugar con el ángulo de la radicación solar[46].


8. Los sistemas biológicos tienen la capacidad de detectar y responder a factores ambientales. Las capacidades de detectar y responder a los factores ambientales (o señales) conducen a la conducta cognitiva en un sistema y en la forma avanzada permiten adquisición, percepción, comprensión y recuerdo de información. 


Dado que los sistemas biológicos están altamente conectados con los elementos inanimados y los sistemas no vivos de la naturaleza, quedan por responder varias preguntas desafiantes. 

• ¿Cuáles son los mecanismos reguladores detrás de las propiedades autónomas de los sistemas biológicos que los distinguen de los elementos inanimados y los sistemas no vivos en la naturaleza? 

• ¿Somos capaces de explicar todas las propiedades autónomas de los sistemas biológicos aplicando las leyes naturales definidas actualmente en física y química? 


1.3 Importancia y aplicaciones fundamentales de los mecanismos reguladores de la autonomía en los sistemas biológicos 


La comprensión profunda de los mecanismos reguladores detrás de las propiedades autónomas de los sistemas biológicos es importante en varios aspectos, entre ellos: 


1. Considerar el cuerpo humano (incluidos todos los órganos internos y el cerebro) como un sistema autónomo altamente avanzado, toda enfermedad es el resultado de un desorden en los mecanismos y programas reguladores que están ejecutando este sistema autónomo. 


2. La comprensión profunda de los programas moleculares detrás de la maquinaria del cuerpo humano es fundamental para la invención de nuevos métodos terapéuticos, especialmente enfoques para enfermedades actualmente incurables (por ejemplo, cáncer, trastornos genéticos, Alzheimer, Parkinson y esclerosis múltiple). 


3. La creciente demanda de creación de sistemas de inteligencia artificial (IA) capaces de conectarse directamente con el cerebro humano requiere una comprensión profunda de los mecanismos moleculares del procesamiento autónomo de datos en el sistema neuronal humano. Esto es fundamental para la generación de algoritmos inteligentes innovadores que podrían usarse para una amplia gama de aplicaciones. Por ejemplo, la simulación de mecanismos de procesamiento de datos autónomos en el cerebro humano se puede aplicar para generar sistemas de IA portátiles (por ejemplo, interfaces cerebro-máquina humano) para diferentes propósitos terapéuticos o para mejorar el rendimiento del cerebro humano. 


4. Dado que los sistemas biológicos son sistemas autónomos naturales muy avanzados, la comprensión y la ingeniería inversa de su sistema operativo se pueden aplicar para diseñar sistemas inteligentes sintéticos en una amplia gama de industrias, como dispositivos electrónicos inteligentes, materiales inteligentes y dispositivos inteligentes biocompatibles y portátiles.


0.6.1 Fundamento químico de la vida 


Al principio, puede resultar difícil aceptar la idea de que cada criatura viviente es simplemente un sistema químico[47]. Hasta el siglo XIX, se creía que los animales contenían una fuerza vital - "un animus" - que era responsable de sus propiedades distintivas. Sin embargo, científicamente, los sistemas biológicos solo están compuestos por elementos químicos naturales. Las células, como subunidad principal de los sistemas biológicos, están formadas por la organización jerárquica de moléculas. La célula ilustra la jerarquía estructural en la organización. La química de los sistemas biológicos (desde las formas más primitivas hasta los organismos altamente avanzados) se componen principalmente de cuatro elementos naturales: carbono, hidrógeno, oxígeno y nitrógeno, que normalmente constituyen hasta el 96% de la masa seca de las células vivas. Aparte de los cuatro elementos antes mencionados, los siguientes elementos clave de los sistemas biológicos son fósforo, azufre, sodio, cloruro, potasio, calcio y magnesio, que constituyen hasta el 3.5% de la masa seca de la célula[48].


Imagen


Además, los oligoelementos están presentes en niveles muy bajos (menos del 0.5% de la masa seca) en un organismo. Estos oligoelementos son esenciales para la vida y los sistemas vivos no pueden sobrevivir sin ellos. Los oligoelementos incluyen hierro, yodo, manganeso, molibdeno, selenio, silicio, estaño, vanadio, boro, cromo, cobalto, zinc, cobre y flúor[49]. Los oligoelementos son esenciales para el sustento de los organismos vivos debido a su papel fundamental en la función de proteínas específicas. Por ejemplo, el yodo es importante para producir diferentes formas de hormona tiroidea e implica la regulación del crecimiento y los niveles de energía en los mamíferos. Muchos de los oligoelementos son necesarios para la función adecuada de las enzimas. El hierro, que se encuentra en los glóbulos rojos, ayuda a transportar oxígeno a diferentes tejidos. Entre los cuatro elementos principales de las células vivas, el carbono constituye más de la mitad del peso seco de las células y desempeña el papel más importante en los organismos vivos. El papel clave del carbono en los sistemas biológicos está relacionado con su alta flexibilidad para formar enlaces químicos consigo mismo y con otras moléculas. El carbono puede formar enlaces sencillos con átomos de hidrógeno y enlaces sencillos y dobles con átomos de oxígeno y nitrógeno. Una de las propiedades más importantes en biología es la capacidad de los átomos de carbono para formar enlaces sencillos carbono-carbono muy estables. Cada átomo de carbono puede formar enlaces sencillos con hasta otros cuatro átomos de carbono. Dos átomos de carbono también pueden formar enlaces dobles o triples. Por tanto, los átomos de carbono unidos covalentemente pueden formar una amplia gama de estructuras moleculares que incluyen cadenas lineales, cadenas ramificadas y estructuras cíclicas. Los grupos de átomos reactivos como el oxígeno, el nitrógeno y el fósforo, también llamados grupos funcionales, se agregan al esqueleto de carbono principal para formar diferentes tipos de biomoléculas. La existencia de grupos funcionales en la estructura química de las biomoléculas determina la reactividad, solubilidad y otras propiedades físicas de una biomolécula y define su papel biológico en un organismo vivo[50]. Los alcoholes son biomoléculas que contienen al menos un grupo hidroxilo. Con una fuerte electronegatividad de los átomos de oxígeno, los grupos hidroxilo proporcionan polaridad para las biomoléculas. De manera similar, los grupos carbonilo en aldehídos y cetonas generalmente aumentan la polaridad y la reactividad de las moléculas orgánicas. Los grupos carboxilo, que contienen dos átomos de oxígeno en su estructura, son grupos funcionales altamente polares y reactivos. Las aminas contienen grupos amino. Al igual que el amoníaco libre (NH3), las aminas son débilmente básicas y pueden unirse a iones de hidrógeno electropositivos en una solución. Por lo tanto, las aminas pueden formar enlaces de hidrógeno con agua y otras moléculas polares en una solución acuosa. En el extremo opuesto del espectro, los grupos fosfato son muy ácidos y se encuentran principalmente en un estado ionizado en soluciones acuosas liberando iones hidrógeno. Debido a los cuatro átomos de oxígeno electronegativos, los grupos fosfato son extremadamente reactivos. La transferencia de grupos fosfato entre moléculas puede aportar energía a las reacciones químicas. Por ejemplo, el trifosfato de adenosina (ATP), que contiene tres grupos fosfato en su estructura, funciona como el principal portador de energía en los sistemas biológicos[51]. 


Muchas biomoléculas son polifuncionales y contienen dos o más grupos funcionales diferentes en sus estructuras químicas. Esta complejidad estructural de moléculas polifuncionales proporciona una flexibilidad especial para que estas moléculas cambien entre diferentes roles según la demanda del sistema.


0.6.2 Fundamento físico de la vida


Las células vivas deben realizar un trabajo para mantener la organización de sus moléculas, reproducirse y, en general, seguir viviendo. Las reacciones sintéticas que ocurren dentro de la célula, como los procesos sintéticos en cualquier fábrica, requieren el aporte de energía. También se consume energía para las operaciones de movimiento y maquinaria de las células vivas. Procesar y almacenar información también requiere energía, sin la cual las estructuras ricas en información se desordenan. Para las reacciones químicas que ocurren en una solución, podemos definir un sistema como todas las reacciones y productos constituyentes: el solvente que los contiene y la atmósfera inmediata dentro de una región definida del espacio. Por lo tanto, un sistema biológico se considera un sistema abierto: intercambia energía y materia (masa) con su entorno. Los sistemas biológicos obtienen energía de su entorno de dos formas: 


1. Captan energía química (como la glucosa) de su entorno y extraen energía por oxidación. 

2. Absorben energía de la luz solar. 


La primera ley de la termodinámica describe el principio de conservación de la energía: en cualquier cambio químico, la cantidad total de energía en el universo permanece constante, aunque la forma de la energía puede cambiar. Además, según la conocida ley física de la relatividad general, explicada por Albert Einstein, la energía y la masa son relativas. Cada materia (masa), incluso en forma estática, contiene un nivel especial de energía que se almacena en sus moléculas. La relatividad de la energía y la masa se explica por la ecuación de relatividad  Imagen, donde “m” es la masa y “c” es la velocidad de la luz (aproximadamente[52] Imagen). Además, a diferencia de la física clásica donde la luz se consideraba simplemente como energía en forma de onda, Einstein afirmó que la luz es una partícula que contiene energía correspondiente a su longitud de onda. Einstein logró explicar el efecto fotoeléctrico, que no se puede explicar si solo se considera la luz como una onda. Entonces, la luz de esta manera pasó a llamarse un “fotón (cuantos de luz)” ya que tiene las propiedades no solo de una onda sino también de una partícula. La ecuación de relatividad fue inicialmente escrita en muchas notaciones diferentes. Se desarrollaron más interpretaciones y justificaciones de la fórmula para diferentes aplicaciones[53]. Inicialmente, la eq. Imagen no se escribió como una fórmula, pero Einstein la describió en una oración, de la siguiente manera, “si un cuerpo emite la energía L (en forma de radiación), su masa disminuye, se puede calcular como[54] Imagen. Posteriormente, describió la equivalencia en la forma[55] Imagen. Después de la Segunda Guerra Mundial, Einstein volvió a la ecuación de la relatividad una vez más y esta vez escribió Imagen en el título de un artículo[56]. Intentó describir la ecuación de la relatividad en una forma más general. 


Posteriormente, también describió la equivalencia de masa y energía, claramente como sigue: la energía E de los sistemas físicos numéricamente igual a la producción de su masa (m) y la velocidad de la luz C al cuadrado. La equivalencia masa-energía establece que un objeto tiene una cierta cantidad de energía, incluso cuando está estacionario. Según la mecánica newtoniana, un cuerpo estacionario (inmóvil) no tiene energía cinética y puede tener o no otras cantidades de energía almacenada internamente. Mientras que, según la relatividad de la energía y la masa, cualquier objeto tiene una energía equivalente (E) que se puede calcular como la masa (m) multiplicada por la velocidad de la luz (c = aproximadamente Imagen) al cuadrado[57]. De manera similar, todavía hay varios fenómenos desconcertantes en la naturaleza observados en las propiedades químicas y físicas de los sistemas biológicos que no se pueden explicar si uno solo considera la energía y la masa como los únicos aspectos de la materia. Los sistemas biológicos obedecen las leyes naturales definidas actualmente en física, incluida la termodinámica, la relatividad de la energía y la masa. Sin embargo, no es suficiente para explicar todas las propiedades de los sistemas biológicos. Por ejemplo, las propiedades autónomas de los sistemas biológicos (incluida su capacidad de autoorganización y autorreplicación) no se pueden explicar simplemente si consideramos solo la energía y la masa. La autoorganización es una propiedad notable en la química de los sistemas biológicos que los distingue de los sistemas no vivos de la naturaleza. A diferencia del autoensamblaje que se puede observar tanto en sistemas vivos como no vivos (por ejemplo, formación de cristales de hielo o plegamiento espontáneo de proteínas), la autoorganización solo se puede observar en sistemas vivos. 


El autoensamblaje es un proceso espontáneo y, como reacción química exergónica, no requiere la absorción de energía del medio ambiente. Por tanto, el autoensamblaje puede explicarse por la termodinámica y por la estabilidad de la estructura molecular. Sin embargo, la formación y el mantenimiento de un sistema autoorganizado dependen de la entrada continua de energía en el sistema. Por lo tanto, al considerar el balance energético del sistema, la autoorganización requiere la absorción de energía del medio ambiente. Como otra propiedad natural notable, los sistemas biológicos se autoalimentan y pueden gestionar sus necesidades energéticas. Otra propiedad notable de un sistema autoorganizado es la capacidad de romper la simetría estructural que también se puede definir como formación de polaridad estructural[58]. La formación de polaridad implica la generación autónoma y el ensamblaje de estructuras geométricas altamente específicas, que crecen a través de diferentes capas de complejidad desde nanoestructuras hasta micro y macroestructuras. 


Imagen


Por lo tanto, la formación de polaridad en un sistema autoorganizado requiere programas internos para orientar y reforzar el progreso hacia la formación de una estructura geométrica deseada. En otras palabras, la autoorganización solo ocurre a través de un proceso programado internamente dedicado. Aunque tanto los procesos de autoensamblaje como de autoorganización se refieren a la formación espontánea de una estructura ordenada, se diferencian entre sí en varios aspectos. En primer lugar, la autoorganización es un proceso no lineal. Durante la autoorganización, se pueden formar diferentes tipos de estructuras en múltiples niveles de complejidad. Mientras que la interacción molecular en el autoensamblaje es más elemental y se remonta a la fuerza electromagnética. El tamaño de la estructura resultante del autoensamblaje es principalmente mesoscópico, pero puede ser considerablemente mayor para la autoorganización. Teniendo en cuenta la base química de los sistemas biológicos, se requieren programas reguladores detrás de la autoorganización y deben integrarse directamente dentro de la química del sistema. Esto implica las interacciones electroquímicas entre moléculas, que también se pueden definir como codificación molecular endógena. Sin embargo, la capacidad de codificación de las moléculas, así como la programabilidad de un sistema químico a través de las interacciones moleculares jerárquicas, todavía no se ha explicado claramente por las leyes de la termodinámica ni la relatividad de la energía y la masa.


La explicación científica de la autoorganización en un sistema biológico requiere la consideración de los programas endógenos (códigos), que están incrustados en la estructura fisicoquímica de las moléculas, como un factor adicional más allá de la energía y masa del sistema. Los códigos moleculares endógenos, en un sistema autoorganizado, guían el progreso del proceso a través de múltiples capas de complejidad. La posibilidad de codificación molecular endógena se recapituló a partir de las propiedades de codificación de biomoléculas. Por lo tanto, aquí describimos esta propiedad de codificación molecular de las biomoléculas como la tercera dimensión de las leyes de la naturaleza en química y física. 


0.6.3 Código: la tercera dimensión de la ley de la naturaleza 


La comprensión actual de las ciencias naturales básicas (incluidas la física y la química) se centra en la energía y la masa como aspectos principales de cualquier materia (material) del universo. La correlación entre la energía y la masa como dos aspectos principales de la materia ha sido descrita claramente a través de la ecuación de la relatividad de la energía y la masa de Albert Einstein. Sin embargo, aún, la posibilidad de almacenamiento de información en moléculas (incrustación de código en moléculas) queda por describir sistemáticamente como la tercera dimensión de la materia. Las biomoléculas como los ácidos nucleicos son modelos prometedores para la descripción de la posibilidad de almacenamiento de información en la materia (capacidad codificante de la materia). Aquí, describimos la posibilidad de incrustar información (código) en la estructura fisicoquímica de las moléculas, como la tercera dimensión de la ley de la naturaleza (más allá de la energía y la masa). Los sistemas biológicos se definen como sistemas programados con precisión mediante el almacenamiento y la operación de información por parte de sus moléculas. Los ácidos nucleicos son moléculas bien conocidas que funcionan como sustancias químicas codificadas altamente conservadas en la naturaleza. El ácido desoxirribonucleico (ADN) es el material hereditario en los seres humanos y en casi todos los demás organismos[59]. La información en el ADN se almacena como un código compuesto por cuatro bases químicas: adenina (A), guanina (G), citosina (C) y timina (T). El orden y las secuencias de estas bases determinan la información disponible para construir y mantener un organismo. Además de la función de codificación biológica del ADN, también se ha utilizado como matriz para el almacenamiento y procesamiento de información no biológica en forma sintética[60]. Los resultados de esta investigación se extendieron a la capacidad de codificación de moléculas de ADN desde la biología hasta las matemáticas y la informática. Por ejemplo, las moléculas de ADN sintético se han utilizado como una matriz de cálculo para resolver un grupo de problemas matemáticos complejos llamados problemas de tiempo polinomiales no deterministas (NP). Los problemas NP son una clase de problemas matemáticos con complejidad exponencial sin una solución eficiente actual. Dada la limitación de las actuales computadoras basadas en silicio en funcionamiento secuencial, es casi improbable que los problemas de NP se resuelvan en un tiempo lógico[61]. Los resultados de los estudios actuales sobre computación con moléculas de ADN indican que el ADN tiene muchas ventajas sobre los métodos computacionales convencionales que utilizan semiconductores de estado sólido.


Las moléculas de ADN pueden ejecutar miles de millones de operaciones simultáneamente y en paralelo entre sí. Esto contrasta con las computadoras digitales eléctricas donde las operaciones individuales son muy rápidas; sin embargo, las operaciones se ejecutan secuencialmente. El paralelismo masivo de la computación del ADN proviene de la gran cantidad de moléculas que interactúan químicamente en un pequeño volumen. Las moléculas de ADN también proporcionan una gran capacidad de almacenamiento en un espacio muy pequeño porque codifican información a nivel molecular. Basado en el paralelismo masivo, la computación de ADN proporciona nuevas soluciones para los problemas de NP. El ADN es un ejemplo de materiales programables naturales. Sin embargo, además del ADN, se pueden aplicar varios otros materiales naturales y sintéticos para la codificación y el procesamiento de datos en nanocomputadoras químicas de próxima generación. Aquí, al aprender de la naturaleza y considerar la posibilidad de almacenamiento y operación de información por moléculas codificadas, así como la interacción programable entre moléculas entre sí y sus factores ambientales, discutimos tres nuevos conceptos emergentes en ciencias naturales, de la siguiente manera:


1. Química programable 

2. Química algorítmica 

3. Química cognitiva


La química programable es una forma especial de química en la que la información está incrustada en enlaces químicos de moléculas o interacciones electroquímicas entre diferentes moléculas. En otras palabras, las moléculas se pueden aplicar como una matriz para el almacenamiento de información en un sistema químico programable. La química algorítmica es una forma especial de química en la que la información puede procesarse mediante una secuencia de operaciones moleculares. Esto significa que, en un sistema de química algorítmica, un grupo de moléculas están interconectadas y pueden funcionar como un algoritmo. De hecho, el sistema puede funcionar como un algoritmo mediante una secuencia de interacciones electroquímicas entre moléculas. Por tanto, más allá de la capacidad de codificación de las moléculas, en un sistema de química algorítmica, la información puede ser procesada por un conjunto de operadores moleculares programados internamente. La química cognitiva es una forma especial de química en la que el sistema es capaz de reconocer y responder a las señales ambientales dinámicas e incluso adaptarse a sus condiciones ambientales. El sistema está altamente conectado con sus factores ambientales a través de sensores moleculares y puertas lógicas. El sistema está formado por un grupo de moléculas codificadas con precisión (que a través de sus interacciones electroquímicas) están altamente conectadas entre sí, así como con sus factores ambientales. De hecho, un sistema de química cognitiva tiene la capacidad de cognición endógena. En los siguientes capítulos, proporcionaremos una descripción detallada de cómo se puede aplicar la química cognitiva en formas sintéticas como una herramienta emergente para los sistemas de computación basados ??en sustancias químicas de próxima generación. Además, discutiremos cómo se puede aplicar la aplicación de los principios básicos de la relatividad del código, la energía y la masa para replicar las propiedades notables de los sistemas biológicos, incluida la autoorganización, la autorregulación, la toma de decisiones, etc.


0.6.4 Relatividad de código, energía y masa


Aquí, al considerar la posibilidad de almacenamiento de información en moléculas, describimos una nueva traducción de la ecuación de relatividad, como la relatividad de código, energía y masa. Una nueva traducción de la ecuación de la relatividad explica que, en la naturaleza, la materia no se limita a la energía y la masa, y la transformación no se limita solo a la energía y la masa, sino que también incluye el código como factor adicional. La relatividad del código, la energía y la masa como una nueva plataforma en la ciencia revela la lógica molecular detrás de varias características desconocidas de la naturaleza (como la maquinaria molecular natural y la autoorganización) y brinda soluciones para varios desafíos en diferentes áreas de la tecnología y las ciencias de la vida. Como ejemplo, primero explicamos la existencia triple de la relatividad en moléculas de ácidos nucleicos (por ejemplo, inicialmente en moléculas de trifosfato de adenosina). Sin embargo, se puede explicar para todas las moléculas naturales o sintéticas con capacidades multifuncionales similares de codificación, energía y transformación de masa a través de sus estructuras moleculares (por ejemplo, péptidos sintéticos, grafeno y aptámeros). Dada la naturaleza multifuncional de los ácidos nucleicos, estas moléculas también pueden actuar como portadores a corto plazo de energía química en sistemas biológicos. Por encima de todos los demás, el trifosfato de adenosina ribonucleico (ATP) transfiere energía en cientos de reacciones celulares diferentes. El ATP se puede formar mediante el reciclaje de la energía liberada por la degradación oxidativa de otras biomoléculas. De hecho, los ácidos nucleicos son moléculas que la naturaleza ha seleccionado como portadores de energía. Por ejemplo, el ATP se puede sintetizar mediante las reacciones de fosforilación oxidativa de la fotosíntesis, que implica la conversión de la energía solar en sus enlaces químicos. La fotosíntesis es un representante de un proceso natural que ilustra claramente la existencia y precisión de la relatividad del código, la energía y la masa en la naturaleza mediante la conversión de la energía solar en energía química. 


Tres fosfatos de la molécula de ATP están unidos en serie por dos enlaces fosfoanhidrato, cuya ruptura libera grandes cantidades de energía útil. En particular, el grupo terminal de fosfato se escinde con frecuencia por hidrólisis, a menudo transfiriendo un fosfato a otras moléculas y liberando energía que impulsa los requisitos de energía para las reacciones biosintéticas. Otros derivados de nucleótidos (por ejemplo, GTP, NADH) también funcionan como portadores de energía para otros grupos químicos. La fotosíntesis es un proceso natural que ilustra claramente cómo un sistema químico programado puede generar una maquinaria molecular para transformar la energía solar en una masa de biomoléculas. Esta energía también se puede aplicar a la generación de nuevos materiales codificados y la autoorganización de nuevos sistemas cognitivos. La integración de la capacidad de codificación y las propiedades termodinámicas (transformación de energía y masa) de las biomoléculas conduce a la alta flexibilidad y propiedades multifuncionales de estas moléculas. 


Considerando los fundamentos físicos y químicos de la vida, se puede concluir que los organismos vivos son sistemas fisicoquímicos y no están exentos de las leyes de la naturaleza en física y química. Científicamente sabemos que los sistemas biológicos están compuestos por elementos normales de la naturaleza. Sin embargo, los mecanismos reguladores que por primera vez provocaron la conversión de elementos de la aleatoriedad en un sistema altamente organizado (determinado como vida) siguen siendo un misterio. “La ciencia no puede resolver el misterio ilimitado de la naturaleza. Y es que, en última instancia, nosotros mismos somos parte de la naturaleza y, por tanto, parte del misterio que estamos tratando de resolver ” (Max Planck). Los mecanismos reguladores precisos detrás del "origen de la vida" hace cinco mil millones de años, cuando ocurrió la primera reacción autogeneradora de la vida, seguían siendo un misterio de la naturaleza (debido a nuestras limitaciones en la experiencia del tiempo). Sin embargo, el lado positivo es que podemos aprender de las reglas de vida actualmente existentes que ya son accesibles a la experiencia humana. A principios del siglo XX, justo después del establecimiento de la física moderna y el efecto revolucionario de la física cuántica en diferentes tecnologías, Erwin Schrodinger se refirió al surgimiento de una revisión en la definición de vida. Además, intentó describir la revisión en la clasificación de las ciencias naturales llenando los vacíos entre la vida y otras ramas de las ciencias. En su conocido libro sobre la vida, titulado “¿Qué es la vida?”. Se refirió a las partes faltantes en la clasificación de las diferentes ramas de las ciencias naturales que separan los sistemas vivos de otros sistemas fisicoquímicos creados por el hombre. Describió que esta brecha está relacionada con nuestra comprensión limitada de la estructura y construcción de los sistemas vivos. Dicho de otra manera, la construcción de sistemas vivos es diferente de cualquier cosa que hayamos probado hasta ahora en los laboratorios físicos hechos por humanos. “Lo que deseamos aclarar es que de todo lo que hemos aprendido sobre la estructura de la materia viva, debemos estar preparados para encontrarla funcionando de una manera que no pueda reducirse a las leyes ordinarias de la física. Eso no porque haya una nueva “fuerza” o lo que sea, que dirija el comportamiento de los átomos individuales dentro de un organismo vivo, sino porque la construcción es diferente de cualquier cosa que hayamos probado hasta ahora en el laboratorio físico[62]. A principios del siglo XX, junto con el gran progreso en física y química y más tarde en matemáticas (ciencia de datos), ocurrió un movimiento revolucionario en las clasificaciones convencionales de ciencias naturales. Diferentes ramas de las ciencias naturales, incluidas la física, la química y las matemáticas, se acercaron unas a otras y, posteriormente, se establecieron varios campos nuevos en las ciencias naturales. Por ejemplo, la física moderna (cuántica) se estableció mediante una nueva interpretación de la física y la química integradas. Más tarde, la informática se estableció mediante la integración de la física electrónica y la ciencia de datos (matemáticas). Durante la Segunda Guerra Mundial, Alan Turing desarrolló la primera computadora digital universal (también llamada máquina de Turing). Trabajó en álgebra y teoría de números, así como en una máquina de cifrado basada en relés electromagnéticos para multiplicar números binarios.


A principios del siglo XX, Max Plank estableció los principios básicos de la física moderna. Más tarde, la física moderna se volvió muy práctica y se aplicó en diferentes tecnologías mediante el trabajo de investigación de Albert Einstein y Erwin Schrodinger sobre la mecánica cuántica. A las 1900, Max Planck intentó explicar la radiación del cuerpo negro de los objetivos calientes. Luego, el espectro de un cuerpo negro se cuantificó asumiendo que la energía en una onda electromagnética, según Max Planck eq. (Imagen). En 1905, Albert Einstein explicó el concepto de fotón como una bolsa de radiación electromagnética que se comporta como energía (onda) y partícula (masa) al mismo tiempo. Además, describió la ecuación para la relatividad de la energía y la masa como Imagen. Más tarde, en 1927, Erwin Schrodinger intentó definir una ecuación de onda que pudiera describir con precisión la energía en una partícula de átomo. Schrodinger logró presentar una ecuación que podía predecir con precisión las energías en los átomos de hidrógeno, lo que llevó al establecimiento de los principios básicos de la física cuántica. La ecuación de Schrodinger probablemente fue la ecuación más importante del siglo XX, debido a su enorme efecto sobre el progreso tecnológico. La mayor importancia del trabajo de Schrodinger en física cuántica proviene de su amplia cobertura tanto de la física como de la química. El físico Paul Dirac afirmó: la ecuación de Schrodinger explica gran parte de la física y toda la química. Además, a mediados del siglo XX, Schrodinger intentó revisar la definición clásica de ciencias de la vida mediante la aplicación de principios básicos de física y química en sistemas biológicos. El manuscrito completo de su serie de conferencias sobre la base fisicoquímica de la vida se publicó más tarde como un libro titulado "¿Qué es la vida?". Schrodinger intentó proporcionar varias pruebas para demostrar la precisión de los principios de la física cuántica en los sistemas biológicos. Creía que las diferencias entre los sistemas biológicos y otros sistemas físicos y químicos están simplemente relacionadas con sus estructuras. Sin embargo, aún así, están hechos de elementos naturales y obedecen todas las leyes de la naturaleza en física y química. Trató de explicar que las diferencias en la construcción de dos sistemas pueden causar una gran diferencia en su función, mientras que los elementos básicos aplicados en ambos sistemas pueden ser los mismos. Esto debe diferenciarse de cualquier otra cosa que pueda causar una comprensión sesgada de los elementos básicos y la naturaleza de un sistema. La diferencia en la construcción es suficiente para hacer una forma de funcionamiento completamente diferente. Schrodinger trató de aclarar este concepto comparando las diferencias estructurales entre un motor térmico y un circuito electrónico, los cuales pueden aplicar los mismos elementos básicos (por ejemplo, cobre y hierro). Se refirió a la consistencia de las propiedades naturales del cobre a pesar de que se ha aplicado de manera diferente en la construcción de un motor térmico en comparación con un circuito electrónico. Para decirlo crudamente, un ingeniero, familiarizado únicamente con los motores térmicos, después de inspeccionar la construcción de un motor electrónico, estará preparado para encontrarlo funcionando según principios que aún no comprende. Encuentra el cobre familiar para él en los hervidores que se utilizan aquí en forma de cables largos enrollados en bobina; el hierro que le es familiar en palancas y barras y cilindros de vapor aquí llenando el interior de esas bobinas de alambre de cobre. Se convencerá de que es el mismo cobre y el mismo hierro, sujeto a las mismas leyes de la naturaleza, y tiene razón en eso. La diferencia en la construcción es suficiente para prepararlo para una forma de funcionamiento completamente diferente. El concepto de coherencia en el tema de la ley de la naturaleza también ha sido mencionado anteriormente por Max Planck y Einstein. Sin embargo, Schrodinger intentó proporcionar una descripción sistemática de la consistencia de las leyes de la naturaleza en los sistemas vivos alineados con la mecánica cuántica.


Schrodinger se refirió al "orden" como la principal diferencia entre un sistema vivo y cualquier otra cosa que exista en la materia inanimada. El desarrollo de eventos en el ciclo de vida de un organismo exhibe una admirable regularidad y orden, incomparable con cualquier cosa que encontremos en la materia inanimada. Lo encontramos controlado por un grupo de átomos sumamente bien ordenado, que representa solo una fracción muy pequeña de la suma total en cada celda. 


Además, basándose en el comportamiento de los átomos, Schrodinger clasificó todos los sistemas físicos de la naturaleza en dos categorías principales, incluida la física estadística y la física ordenada (ordenada). Recuerda Schrodinger un pequeño artículo interesante de Max Planck sobre el tema del tipo de derecho dinámico y estadístico (Dynamische und Statistische Gresetzmassigkeit). La distinción es precisamente la que hemos etiquetado aquí como “orden del orden" y "orden del desorden". El objeto de ese artículo era mostrar cómo el interesante tipo estadístico de ley, que controla los eventos a gran escala, se constituye a partir de las leyes dinámicas que supuestamente gobiernan los eventos a pequeña escala, la interacción de los átomos y moléculas individuales. El último tipo está ilustrado por fenómenos mecánicos a gran escala, como el movimiento de los planetas o de un reloj, etc. Parecería que el nuevo principio, el principio de orden a partir del orden, al que hemos señalado con gran solemnidad como la verdadera clave para la comprensión de la vida. 


Para el nuevo principio que es genuinamente físico, es, en nuestra opinión, nada más que el principio de la teoría cuántica una y otra vez. Pero no podemos esperar que las "leyes de la física" derivadas de él sean suficientes de inmediato para explicar el comportamiento de la materia viva cuyas características sorprendentes se basan visiblemente en gran medida en el principio de "orden a partir de orden". No esperaría que dos mecanismos completamente diferentes produzcan el mismo tipo de ley; no esperaría que la llave del pestillo abra también la puerta de su vecino. Por tanto, no debemos desanimarnos por la dificultad de interpretar la vida según las leyes ordinarias de la física. Porque eso es precisamente lo que cabe esperar del conocimiento que hemos adquirido de la estructura de la materia viva. Debemos estar preparados para encontrar un nuevo tipo de leyes físicas que prevalezcan en él.  Ahora la gran pregunta es ¿cuál sería el nuevo tipo de leyes físicas que prevalecen en la estructura, función y comportamiento altamente ordenado de los sistemas vivos? Aquí,  intentamos explicar los mecanismos que causan el comportamiento ordenado de moléculas y átomos en sistemas biológicos. Discutiremos cómo el orden a partir de la física del orden puede explicarse por la propiedad única de los sistemas biológicos para la generación de códigos moleculares. Como factor adicional en las leyes de la naturaleza, describimos la capacidad de codificación de moléculas en sistemas biológicos que deben considerarse junto con las propiedades de las moléculas para la producción de energía y en masa. Por lo tanto, determinamos el código como la tercera dimensión de las leyes de la naturaleza que se han ilustrado en las propiedades autónomas de los sistemas biológicos. Al considerar el código como la tercera dimensión de las leyes de la naturaleza en física y química, determinamos una nueva rama de la química llamada química cognitiva que imita la física ordenada en los sistemas biológicos. La química cognitiva integra las leyes de la naturaleza en química, física y matemáticas para la codificación, el almacenamiento de datos y la operación por moléculas. La química cognitiva se puede interpretar en terminología física como la relatividad del código, la energía y la masa.


Referentes


[1] Ruyant, Quentin. (2021). Theories, Models and Representation. 10.1007/978-3-030-72349-1_2.

[2] Nevo, Aviv & Whinston, Michael. (2010). Taking the Dogma out of Econometrics: Structural Modeling and Credible Inference. Journal of Economic Perspectives. 24. 69-82. 10.2139/ssrn.1559385.

[3] Esarey, Justin & Sumner, Jane. (2017). Marginal Effects in Interaction Models: Determining and Controlling the False Positive Rate. Comparative Political Studies. 51. 001041401773008. 10.1177/0010414017730080.

[4] Fürstenwerth, Hauke. (2013). On Correlation and Causality. Critical care medicine. 41. e140-1. 10.1097/CCM.0b013e31828c2517.

[5] Cox, Gary. (1999). The Empirical Content of Rational Choice Theory: A Reply to Green and Shapiro. Journal of Theoretical Politics - J THEOR POLIT. 11. 147-169. 10.1177/0951692899011002001.

[6] Fernández-Fernández, Claudia. (2021). Formal Model for Explicit Aware Knowledge. 10.1007/978-3-030-69606-1_6.

[7] Thicke, Michael. (2020). Evaluating Formal Models of Science. Journal for General Philosophy of Science. 51. 10.1007/s10838-018-9440-1.

[8] Grim, Patrick & Singer, Daniel. (2021). Computational Philosophy - Stanford Encyclopedia of Philosophy.

[9] Šešelja, Dunja. (2018). Exploring Scientific Inquiry via Agent-Based Modeling.

[10] Eberle, Oliver & Buttner, Jochen & Krautli, Florian & Müller, Klaus-Robert & Valleriani, Matteo & Montavon, Gregoire. (2020). Building and Interpreting Deep Similarity Models. IEEE Transactions on Pattern Analysis and Machine Intelligence. PP. 1-1. 10.1109/TPAMI.2020.3020738.

[11] Borim-de-Souza, Rafael & Travis, Eric & Munck, Luciano & Galleli, Bárbara. (2020). An objective hermeneutic approach to qualitative validation. Qualitative Research in Organizations and Management An International Journal. ahead-of-print. 10.1108/QROM-08-2019-1806.

[12] Shepherd, Bryan & Jarrett, Ryan & Fu, Lingjun. (2016). GUIDO IMBENS, DONALD RUBIN, Causal Inference for Statistics, Social, and Biomedical Sciences: An Introduction. New York: Cambridge University Press.: Book Review. Biometrics. 72. 1387-1388. 10.1111/biom.12615.

[13] O. Wolkenhauer et al. Systems biologists seek fuller integration of

systems biology approaches in new cancer research programs. Cancer

Res., 70(1):12–13, 2010. doi: 10.1158/0008-5472.CAN-09-2676.

[14] Alison, Laurence & Smith, Matthew & Eastman, Oliver & Rainbow, Lee. (2003). Toulmin's philosophy of argument and its relevance to Offender Profiling. Psychology Crime & Law - PSYCHOL CRIME LAW. 9. 173-183. 10.1080/1068316031000116265.

[15] Karmakar, Rajesh & Das, Amit. (2021). Effect of transcription reinitiation in stochastic gene expression. Journal of Statistical Mechanics: Theory and Experiment. 2021. 033502. 10.1088/1742-5468/abdeb1.

[16] Veliz-Cuba, Alan & Josic, Kresimir. (2013). Piecewise Linear and Boolean Models of Chemical Reaction Networks. Bulletin of mathematical biology. 76. 10.1007/s11538-014-0040-x.

[17] Delehanty, Megan. (2021). Extending the mechanism: Dealing with the context objection to reduction.

[18] Wimsatt, William. (1976). Complexity and Organization. PSA 1972. 1972. 67-86. 10.1007/978-94-010-1829-6_8.

[19] Schaffner, Kenneth. (1994). Discovery and Explanation in Biology and Medicine. Bibliovault OAI Repository, the University of Chicago Press.

[20] Bechtel, William & Richardson, Robert. (2010). Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. 10.7551/mitpress/8328.001.0001.

[21] Glennan, Stuart. (2021). Mechanisms, models, and causation

[22] Cartwright, Nancy. (1994). Nature's Capacities and Their Measurement. 10.1093/0198235070.001.0001.

[23] Salmon, Wesley. (2020). Scientific Explanation and the Causal Structure of the World. 10.2307/j.ctv173f2gh.

[24] Jones, Jude. (1997). Process Metaphysics: An Introduction to Process Philosophy. International Philosophical Quarterly. 37. 250-252. 10.5840/ipq199737220.

[25] Peripheral Nervous Systems: Development, Structure, and Function. 10.1007/978-3-030-53363-2_22.

[26] Bugajak, Grzegorz. (2011). Causality and Determinism in Modern Physics.

[27] Johnson, R. & Russo, Federica & Schoonenboom, Judith. (2017). Causation in Mixed Methods Research: The Meeting of Philosophy, Science, and Practice. Journal of Mixed Methods Research. 13. 155868981771961. 10.1177/1558689817719610.

[28] Papachristos, George. (2018). A mechanism based transition research methodology: Bridging analytical approaches. Futures. 98. 57-71. 10.1016/j.futures.2018.02.006.

[29] Santis, Marcelo. (2020). Scientific explanation and systematics. Systematics and Biodiversity. 19. 10.1080/14772000.2020.1844339.

[30] Radder, Hans. (2021). Empiricism Must, but Cannot, Presuppose Real Causation. Journal for General Philosophy of Science. 10.1007/s10838-021-09551-9.

[31] Craver, Carl. (2020). Remembering: Epistemic and Empirical. Review of Philosophy and Psychology. 11. 10.1007/s13164-020-00469-7.

[32] Siponen, Mikko & Klaavuniemi, Tuula. (2020). Why is the hypothetico-deductive (H-D) method in information systems not an H-D method?. Information and Organization. 30. 100287. 10.1016/j.infoandorg.2020.100287.

[33] Prakash, Kirti. (2016). The periodic and dynamic structure of chromatin. 10.11588/heidok.00021825.

[34] Zhang, Xian-En. (2020). Nanobiology—Symphony of bioscience and nanoscience. Science China Life Sciences. 63. 10.1007/s11427-020-1741-y.

[35] Moreno, Alvaro. (2018). On Minimal Autonomous Agency: Natural and Artificial. Complex Systems. 27. 289-313. 10.25088/ComplexSystems.27.3.289.

[36] Cox, Michael & Nelson, David. (2000). Lehninger Principles of Biochemistry. 10.1007/978-3-662-08289-8.

[37] Kärcher, B. & Hirschberg, M. & Fabian, P.. (1996). Small-scale chemical evolution of aircraft exhaust species at cruising altitudes. Journal of Geophysical Research. 1011. 15169-15190. 10.1029/96JD01059.

[38] Hakim, Md. (2017). Biophysical Modeling of Dietary Energy in Biochemical Modeling. European Journal of Biophysics. 5. 57. 10.11648/j.ejb.20170503.12.

[39] England, Dr & Cohen, Simon. (2021). A User’s Guide to Intellectual Property in Life Sciences. 10.5040/9781526511782.

[40] Zheng, Yao-Rong & Yang, Hai-Bo & Ghosh, Koushik & Zhao, Liang & Stang, Peter. (2009). Multicomponent Supramolecular Systems: Self-Organization in Coordination-Driven Self-Assembly. Chemistry (Weinheim an der Bergstrasse, Germany). 15. 7203-14. 10.1002/chem.200900230.

[41] Jiang, Zongliang & Logsdon, Deirdre & Schoolcraft, W.B. & Krisher, Rebecca & Yuan, Ye. (2018). Single cell gene expression profiling of trophoblast generated from self-organizing human embryos in vitro. Fertility and Sterility. 110. e81. 10.1016/j.fertnstert.2018.07.245.

[42] Wang, Xu-Qing & Li, Wei-Jian & Yang, Hai-Bo. (2019). CHAPTER 3: Self-organization in Coordination-driven Self-assembled Metallomacrocyles. 10.1039/9781788013123-00047.

[43] Ding, Zhili & Xiong, Yunfeng & Zheng, Jinxian & Zhou, Dongsheng & Kong, Youqin & Qi, Changle & Liu, Yan & Ye, Jinyun & Limbu, Samwel. (2021). Modulation of growth, antioxidant status, hepatopancreas morphology, and carbohydrate metabolism mediated by alpha-lipoic acid in juvenile freshwater prawns Macrobrachium nipponense under two dietary carbohydrate levels. Aquaculture. 546. 737314. 10.1016/j.aquaculture.2021.737314.

[44] Espinosa-Diez, Cristina & Miguel, Verónica & Mennerich, Daniela & Kietzmann, Thomas & Sánchez, Patricia & Cadenas, Susana & Lamas, Santiago. (2015). Antioxidant responses and cellular adjustments to oxidative stress. Redox biology. 6. 183-197. 10.1016/j.redox.2015.07.008.

[45] Al-Khalili, Jim & Lilliu, Samuele. (2020). Quantum Biology. Scientific Video Protocols. 1. 1-4. 10.32386/scivpro.000020.

[46] Hauer, Jürgen & Kleinekathöfer, Ulrich & Jansen, Thomas & Mancal, Tomas & Miller, R. & Ogilvie, Jennifer & Prokhorenko, Valentyn & Renger, Thomas & Tan, Howe-Siang & Tempelaar, Roel & Thorwart, Michael & Thyrhaug, Erling & Westenhoff, Sebastian & Zigmantas, Donatas & Duan, Hong-Guang. (2020). Quantum biology revisited. Science Advances. 6. eaaz4888. 10.1126/sciadv.aaz4888.

[47] MacCord, Kate. (2020). Cell and Molecular Biology. The Quarterly Review of Biology. 95. 163-163. 10.1086/709075.

[48] Wang, Jie & Wang, Xin & Fan, Xinyuan & Chen, Peng. (2021). Unleashing the Power of Bond Cleavage Chemistry in Living Systems. ACS Central Science. XXXX. 10.1021/acscentsci.1c00124.

[49] Slack, J.M.W.. (2020). Molecular biology of the cell. 10.1016/B978-0-12-818422-6.00005-8.

[50] Perez Lopez, Ana & Rubio-Ruiz, Belén & Sebastian, Victor & Hamilton, Lloyd & Adam, Catherine & Bray, Thomas & Irusta, Silvia & Brennan, Paul & Lloyd-Jones, Guy & Sieger, Dirk & Santamaría, J. & Unciti-Broceta, Asier. (2017). Gold-Triggered Uncaging Chemistry in Living Systems. Angewandte Chemie (International ed. in English). 56. 10.1002/anie.201705609.

[51] Qureshi, Muhammad. (2018). HARPER'S ILLUSTRATED BIOCHEMISTRY 30th.

[52] http://www.libertadacademica.com/ContenidoQuantum2021/pages/Quantum21.html

[53] Berké, Özgür. (2021). A straightforward and Lagrangian proof of the Einsteinian equivalence between the mass and the inernal energy (i.e. rest energy). 10.21203/rs.3.rs-642837/v1.

[54] Einstein A (1905) Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig? Ann Phys 18:639–643

[55] Einstein A (1908) “Über das Relativitätsprinzip und die aus demselben gezogenen Folgerungen” (PDF). Jahrbuch der Radioaktivität und Elektronik 4:411–462 Jahrbuch der Radioaktivität und Elektronik, 4: 411–462

[56] Einstein, A.. (2021). E=mc2, the most urgent problem. 1. 16-17.

[57] Einstein A, Lorentz HA, Minkowski H et al (1952) The principle of relativity, a collection of original memoirs on the special and general theory of relativity, 1st edn. Cover Publication, New York

[58] Vegh, Janos. (2019). Classic versus modern computing: analogies with classic versus modern physics.

[59] Watson JD, Crick FC (1953) Molecular structure of nucleic acids. Nature 171(4356):737–738

[60] Thubagere, Anupama & Thachuk, Chris & Berleant, Joseph & Johnson, Robert & Ardelean, Diana & Cherry, Kevin & Qian, Lulu. (2017). Compiler-aided systematic construction of large-scale DNA strand displacement circuits using unpurified components. Nature Communications. 8. 14373. 10.1038/ncomms14373.

[61] Konopik, Michael & Korten, Till & Linke, Heiner & Lutz, Eric. (2021). Solving the subset sum problem with a nonideal biological computer.

[62] Schrodinger E (1944) What is life. Cambridge University Press, UK