Eric Schmidt aventura una nueva era científica gracias a la IA =========================================================== por Eric Schmidt 18 Julio, 2023 La ciencia está a punto de volverse mucho más apasionante, y eso nos afectará a todos, afirma el exconsejero delegado de Google Estamos ante otro verano de condiciones meteorológicas extremas, con olas de calor, incendios forestales e inundaciones sin precedentes que azotan países de todo el mundo. En respuesta a este reto, Nvidia, el gigante de los semiconductores, está construyendo un "gemelo digital" con IA para todo el planeta. Este gemelo digital, llamado Tierra-2, utilizará predicciones de FourCastNet un modelo de inteligencia artificial que utiliza decenas de terabytes de datos del sistema terrestre y puede predecir el tiempo de las próximas dos semanas decenas de miles de veces más rápido y con mayor precisión que los métodos de predicción actuales. Los sistemas habituales de predicción meteorológica tienen capacidad para generar unas 50 predicciones para la semana siguiente. En cambio, FourCastNet puede predecir miles de posibilidades, y capta con precisión el riesgo de catástrofes raras pero mortales para dar a las poblaciones vulnerables un tiempo valioso para prepararse y evacuar. La esperada revolución en la modelización del clima es sólo el principio. Con la llegada de la IA, la ciencia está a punto de volverse mucho más apasionante y, en cierto modo, irreconocible. Las repercusiones de este cambio se sentirán mucho más allá del laboratorio: nos afectarán a todos. Si jugamos bien nuestras cartas, con una regulación sensata y el apoyo adecuado a los usos innovadores de la IA para abordar los problemas más acuciantes de la ciencia, la IA puede reescribir el proceso científico. Podemos construir un futuro en el que las herramientas impulsadas por IA nos ahorren trabajo inútil y laborioso y nos lleven a inventos y descubrimientos creativos, fomentando avances que de otro modo llevarían décadas. En los últimos meses, la IA se ha convertido casi en sinónimo de grandes modelos lingüísticos, o LLM, pero en ciencia hay multitud de arquitecturas de modelos diferentes que pueden tener un impacto aún mayor. En la última década, la mayor parte de los avances científicos se han producido gracias a modelos "clásicos" más pequeños centrados en cuestiones específicas. Estos modelos ya han aportado profundos avances. Más recientemente, los modelos de aprendizaje profundo de mayor tamaño que están empezando a incorporar el conocimiento entre dominios y la IA generativa han ampliado las posibilidades. Por ejemplo, científicos de McMaster y el Instituto Tecnológico de Massachussets (MIT, por sus siglas en inglés) utilizaron un modelo de IA para identificar un antibiótico con el que combatir un patógeno que la Organización Mundial de la Salud calificó como una de las bacterias resistentes a los antibióticos más peligrosas del mundo para los pacientes hospitalizados. Un modelo de Google DeepMind puede controlar el plasma en las reacciones de fusión nuclear, lo que nos acerca a una revolución de la energía limpia. En el ámbito sanitario, la Administración de Alimentos y Medicamentos de EE UU (FDA, por sus siglas en inglés) ya ha autorizado 523 dispositivos que utilizan IA, el 75% de ellos para su uso en radiología. ## Reimaginar la ciencia En esencia, el proceso científico que todos aprendimos en la escuela primaria seguirá siendo el mismo: realizar una investigación de fondo, identificar una hipótesis, ponerla a prueba mediante la experimentación, analizar los datos recogidos y llegar a una conclusión. Pero la IA tiene el potencial de revolucionar el aspecto de cada uno de estos componentes en el futuro. La inteligencia artificial ya está transformando la forma en que algunos científicos realizan revisiones bibliográficas. Herramientas como PaperQA y Elicit aprovechan los LLM para escanear bases de datos de artículos y elaborar resúmenes sucintos y precisos de la bibliografía existente, citas incluidas. Una vez finalizada la revisión bibliográfica, los científicos formulan una hipótesis que se someterá a prueba. En esencia, los LLM trabajan prediciendo la siguiente palabra de una frase, hasta llegar a frases y párrafos enteros. Esta técnica hace que los LLM sean especialmente adecuados para los problemas a escala intrínsecos a la estructura jerárquica de la ciencia y podría permitirles predecir el próximo gran descubrimiento en física o biología. La IA también puede ampliar la red de búsqueda de hipótesis y reducirla más rápidamente. Como resultado, las herramientas de IA pueden ayudar a formular hipótesis más sólidas, como modelos que arrojen candidatos más prometedores para nuevos fármacos. Ya estamos viendo simulaciones que se ejecutan varios órdenes de magnitud más rápido que hace unos años, lo que permite a los científicos probar más opciones de diseño en simulación antes de llevar a cabo experimentos en el mundo real. Los científicos de Caltech, por ejemplo, utilizaron un modelo de simulación de fluidos de IA para diseñar automáticamente un catéter mejor que impida que las bacterias naden corriente arriba y causen infecciones. Este tipo de capacidad cambiará fundamentalmente el proceso incremental del descubrimiento científico, y permitirá a los investigadores diseñar la solución óptima desde el principio en lugar de progresar a través de una larga línea de diseños progresivamente mejores, como vimos en años de innovación sobre filamentos en el diseño de bombillas. Pasando a la fase de experimentación, la IA podrá realizar experimentos de forma más rápida, barata y a mayor escala. Por ejemplo, podemos construir máquinas impulsadas por IA con cientos de micropipetas funcionando día y noche para crear muestras a un ritmo que ningún humano podría igualar. En lugar de limitarse a seis experimentos, los científicos podrán utilizar herramientas de IA para realizar mil. Los científicos preocupados por su próxima beca, publicación o titularidad ya no estarán atados a experimentos seguros con las mayores probabilidades de éxito; serán libres de perseguir hipótesis más audaces e interdisciplinarias. Al evaluar nuevas moléculas, por ejemplo, los investigadores tienden a ceñirse a candidatos de estructura similar a los que ya conocemos, pero los modelos de IA no tienen por qué tener los mismos sesgos y limitaciones. Con el tiempo, gran parte de la ciencia se llevará a cabo en "laboratorios autodirigidos": plataformas robóticas automatizadas combinadas con inteligencia artificial. De este modo, podremos trasladar las proezas de la IA del ámbito digital al mundo físico. Estos laboratorios de conducción autónoma ya están surgiendo en empresas como Emerald Cloud Lab y Artificial, e incluso en el Laboratorio Nacional Argonne. Por último, en la fase de análisis y conclusiones, los laboratorios autodirigidos irán más allá de la automatización y, informados por los resultados experimentales que hayan producido, utilizarán los LLM para interpretar los resultados y recomendar el siguiente experimento a realizar. Entonces, como socios en el proceso de investigación, el asistente de laboratorio de IA podría pedir suministros para reemplazar los utilizados en experimentos anteriores y configurar y ejecutar los siguientes experimentos recomendados durante la noche, con los resultados listos para entregar por la mañana, todo ello mientras el experimentador está en casa durmiendo. ## Posibilidades y limitaciones Es posible que los jóvenes investigadores se agiten nerviosos en sus asientos ante esta perspectiva. Por suerte, es probable que los nuevos empleos que surjan de esta revolución sean más creativos y mentales que la mayoría de los trabajos de laboratorio actuales. Las herramientas de IA pueden reducir la barrera de entrada para los nuevos científicos y abrir oportunidades a los tradicionalmente excluidos de este campo. Si los LLM pueden ayudar a crear código, los estudiantes de STEM ya no tendrán que dominar oscuros lenguajes de programación, lo que abrirá las puertas de la torre de marfil a nuevos talentos no tradicionales y facilitará que los científicos se relacionen con campos que van más allá del suyo. Pronto, los LLM con formación específica podrían ir más allá de ofrecer los primeros borradores de trabajos escritos, como propuestas de subvenciones, y podrían desarrollarse para ofrecer revisiones "por pares" de nuevos trabajos junto con revisores humanos. Las herramientas de IA tienen un potencial increíble, pero debemos reconocer dónde sigue siendo importante el toque humano y evitar correr antes de poder andar. Por ejemplo, fusionar con éxito la IA y la robótica a través de laboratorios de conducción autónoma no será fácil. Hay muchos conocimientos tácitos que los científicos aprenden en los laboratorios y que son difíciles de transmitir a la robótica impulsada por IA. Del mismo modo, debemos ser conscientes de las limitaciones -e incluso alucinaciones- de los actuales LLM antes de descargarles gran parte de nuestro papeleo, investigación y análisis. Empresas como OpenAI y DeepMind siguen abriendo camino con nuevos avances, modelos y trabajos de investigación, pero el dominio actual de la industria no durará para siempre. DeepMind ha destacado hasta ahora por centrarse en problemas bien definidos con objetivos y métricas claros. Uno de sus éxitos más famosos se produjo en la Critical Assessment of Structure Prediction, una competición bienal en la que equipos de investigación predicen la forma exacta de una proteína a partir del orden de sus aminoácidos. De 2006 a 2016, la puntuación media en la categoría más difícil osciló en torno a 30-40 en la escala de 1 a 100 de CASP. De repente, en 2018, el modelo AlphaFold de DeepMind obtuvo la friolera de 58 puntos. Una versión actualizada llamada AlphaFold2 obtuvo 87 puntos dos años después, dejando a sus competidores humanos aún más atrás. Gracias a los recursos de código abierto, estamos empezando a ver un patrón en el que la industria alcanza ciertos puntos de referencia y luego el mundo académico interviene para refinar el modelo. Tras el lanzamiento de AlphaFold por parte de DeepMind, Minkyung Baek y David Baker, de la Universidad de Washington (EE UU), publicaron RoseTTAFold, que utiliza el marco de DeepMind para predecir las estructuras de conjuntos de proteínas en lugar de las estructuras de una sola proteína que AlphaFold podía manejar originalmente. Y lo que es más importante, los académicos están más protegidos de las presiones competitivas del mercado, por lo que pueden aventurarse más allá de los problemas bien definidos y los éxitos medibles que atraen a DeepMind. Además de alcanzar nuevas cotas, la IA puede ayudar a verificar lo que ya sabemos abordando la crisis de replicabilidad de la ciencia. Alrededor del 70% de los científicos afirman haber sido incapaces de reproducir el experimento de otro científico, una cifra desalentadora. A medida que la IA reduzca el coste y el esfuerzo de realizar experimentos, en algunos casos será más fácil reproducir los resultados o concluir que no pueden reproducirse, lo que contribuirá a aumentar la confianza en la ciencia. La clave de la replicabilidad y la confianza es la transparencia. En un mundo ideal, todo en la ciencia sería de libre acceso, desde los artículos sin barreras de pago hasta los datos, códigos y modelos de código abierto. Lamentablemente, con los peligros que estos modelos pueden desencadenar, no siempre es realista hacer que todos los modelos sean de código abierto. En muchos casos, los riesgos de ser completamente transparentes superan los beneficios de la confianza y la equidad. No obstante, en la medida en que podamos ser transparentes con los modelos -especialmente los modelos clásicos de IA con usos más limitados- deberíamos serlo. ## La importancia de la regulación En todos estos ámbitos, es esencial recordar las limitaciones y los riesgos inherentes a la inteligencia artificial. La IA es una herramienta tan poderosa porque permite a los humanos lograr más con menos: menos tiempo, menos formación y menos equipamiento. Pero estas capacidades la convierten en un arma peligrosa en las manos equivocadas. Andrew White, profesor de la Universidad de Rochester (EE UU), fue contratado por OpenAI para participar en un "equipo rojo" que pudiera exponer los riesgos de GPT-4 antes de su lanzamiento. Utilizando el modelo lingüístico y dándole acceso a herramientas, White descubrió que podía proponer compuestos peligrosos e incluso encargarlos a un proveedor químico. Para probar el proceso, hizo que le enviaran a casa un compuesto de prueba (seguro) a la semana siguiente. OpenAI afirma que utilizó sus descubrimientos para ajustar GPT-4 antes de su lanzamiento. Incluso los seres humanos con intenciones totalmente buenas pueden inducir a las IA a producir malos resultados. Deberíamos preocuparnos menos de crear Terminator y, como ha dicho el informático Stuart Russell, más de convertirnos en el Rey Midas, que deseaba que todo lo que tocaba se convirtiera en oro y mató accidentalmente a su hija con un abrazo. No tenemos ningún mecanismo para incitar a una IA a cambiar su objetivo, ni siquiera cuando reacciona a su objetivo de una forma que no prevemos. Una de las hipótesis más citadas consiste en pedirle a una IA que produzca el mayor número posible de clips. Decidido a cumplir su objetivo, el modelo secuestra la red eléctrica y mata a cualquier humano que intente detenerlo mientras los clips siguen acumulándose. El mundo queda destrozado. La IA se da una palmadita en la espalda: ha hecho su trabajo. (En un guiño a este famoso experimento mental, muchos empleados de OpenAI llevan consigo sujetapapeles de marca). OpenAI ha conseguido implementar un impresionante conjunto de salvaguardas, pero éstas sólo se mantendrán mientras GPT-4 esté alojado en los servidores de OpenAI. Es probable que pronto llegue el día en que alguien consiga copiar el modelo y alojarlo en sus propios servidores. Es necesario proteger estos modelos de vanguardia para evitar que los ladrones eliminen las barreras de seguridad de la IA que con tanto esmero añadieron sus desarrolladores originales. Para hacer frente a los malos usos intencionados y no intencionados de la IA, necesitamos una regulación inteligente y bien informada, tanto para los gigantes tecnológicos como para los modelos de código abierto, que no nos impida utilizar la IA de formas que puedan ser beneficiosas para la ciencia. Aunque las empresas tecnológicas han avanzado mucho en la seguridad de la IA, los reguladores gubernamentales no están suficientemente preparados para promulgar leyes adecuadas y deberían tomar más medidas para informarse sobre los últimos avances. Más allá de la regulación, los gobiernos -junto con la filantropía- pueden apoyar proyectos científicos con un alto rendimiento social pero escaso rendimiento financiero o incentivo académico. Hay varias áreas especialmente urgentes, como el cambio climático, la bioseguridad y la preparación ante pandemias. Es en estas áreas donde más necesitamos la velocidad y la escala que ofrecen las simulaciones de IA y los laboratorios de conducción autónoma. Los gobiernos también pueden ayudar a desarrollar grandes conjuntos de datos de alta calidad, como aquellos en los que se basó AlphaFold, en la medida en que las cuestiones de seguridad lo permitan. Los conjuntos de datos abiertos son bienes públicos: benefician a muchos investigadores, pero éstos tienen pocos incentivos para crearlos por sí mismos. Las administraciones públicas y las organizaciones filantrópicas pueden colaborar con universidades y empresas para identificar retos científicos fundamentales que se beneficiarían del acceso a bases de datos potentes. La química, por ejemplo, tiene un lenguaje que unifica el campo, lo que parecería prestarse a un análisis fácil por parte de los modelos de IA. Pero nadie ha agregado adecuadamente los datos sobre propiedades moleculares almacenados en docenas de bases de datos, lo que nos impide acceder a perspectivas del campo que estarían al alcance de los modelos de IA si tuviéramos una única fuente. La biología, por su parte, carece de los datos conocidos y calculables que subyacen a la física o la química, con subcampos como el de las proteínas intrínsecamente desordenadas que aún nos resultan misteriosos. Por tanto, será necesario un esfuerzo más concertado para comprender -e incluso registrar- los datos de una base de datos agregada. El camino hacia la adopción generalizada de la IA en las ciencias es largo y hay muchas cosas que debemos hacer bien, desde crear las bases de datos adecuadas hasta aplicar la normativa correcta, mitigar los sesgos en los algoritmos de IA o garantizar la igualdad de acceso a los recursos informáticos más allá de las fronteras. Sin embargo, este es un momento profundamente optimista. Los anteriores cambios de paradigma en la ciencia, como la aparición del proceso científico o los macrodatos, se han centrado en el interior, haciendo que la ciencia sea más precisa, exacta y metódica. La IA, por su parte, es expansiva y nos permite combinar la información de formas novedosas y llevar la creatividad y el progreso de las ciencias a nuevas cotas. Eric Schmidt fue consejero delegado de Google de 2001 a 2011. Actualmente es cofundador de Schmidt Futures, una iniciativa filantrópica que apuesta desde el principio por personas excepcionales que mejoran el mundo, aplican la ciencia y la tecnología y unen a personas de distintos campos. ## Vía http://www.technologyreview.es/s/15527/eric-schmidt-aventura-una-nueva-era-cientifica-gracias-la-ia