OpenAI lanza GPT-Rosalind, un modelo de IA para la investigación en ciencias biológicas

GPT-Rosalind, que lleva el nombre del cristalógrafo que ayudó a revelar la estructura del ADN, es la primera serie de modelos de dominio específico de OpenAI, finamente diseñado para bioquímica, genómica e ingeniería de proteínas. El acceso a un programa de acceso confiable está restringido a clientes empresariales examinados, incluidos Amgen, Moderna y Thermo Fisher Scientific.
Abierto AI GPT lanzó Rosalind, un modelo lógico de frontera creado específicamente para la investigación en ciencias biológicas, anunció la compañía el jueves.
El modelo, que representa la primera serie de modelos de dominio específico de OpenAI, está diseñado para respaldar la síntesis de evidencia, la generación de hipótesis, la planificación experimental y los flujos de trabajo científicos de varios pasos en bioquímica, genómica e ingeniería de proteínas.
Está disponible como una vista previa de la investigación en ChatGPT, Codex y la API OpenAI, pero el acceso está limitado a un programa de acceso confiable para clientes empresariales elegibles en los EE. UU.
El nombre del modelo. Rosalind FranklinQuímico y cristalógrafo de rayos X británico cuyas imágenes por difracción del ADN fueron fundamentales para revelar la estructura de doble hélice, y cuyas contribuciones estuvieron notablemente ausentes en el Premio Nobel de 1962 otorgado a Watson, Crick y Wilkins.
El nombramiento es un acto sutil de reconocimiento: el trabajo de Franklin ahora se considera la base de la biología molecular moderna, y ella sigue siendo una piedra de toque en las discusiones sobre la eliminación de las mujeres de la historia científica.
OpenAI está desarrollando GPT-Rosalind como una herramienta para acortar el tiempo desde el concepto científico hasta la evidencia clínica. La agencia estima que actualmente se necesitan entre 10 y 15 años para que un fármaco pase del descubrimiento objetivo a la aprobación regulatoria en los Estados Unidos.
GPT-Rosalind está posicionado para ayudar en las primeras etapas: puede buscar bases de datos especializadas, analizar literatura científica, comunicarse con herramientas computacionales y sugerir nuevas vías experimentales dentro de una única interfaz.
Además de los modelos, OpenAI también está introduciendo un complemento de investigación en ciencias biológicas para Codex que conecta modelos con más de 50 herramientas científicas y fuentes de datos, brindando a los investigadores acceso programático a bases de datos biológicas y procesos computacionales.
Socios de lanzamiento incluidos amgen, moderno, Termo Fisher ScientificY Instituto Allen. OpenAI también está trabajando con el Laboratorio Nacional de Los Álamos en el diseño de catalizadores y proteínas guiado por IA.
Rendimiento de referencia, según lo informado por OpenAI, GPT-Rosalind logró una tasa de aprobación de 0,751 en BixBench, un punto de referencia de bioinformática desarrollado por Edison Scientific que evalúa modelos de trabajo de biología computacional del mundo real.
En LABBench2, un punto de referencia de tareas de investigación más amplio, el modelo superó a GPT-5.4 en seis de once tareas, con su ventaja más notable en CloningQA, un protocolo de clonación molecular que requiere un diseño de reactivos de un extremo a otro.
La señal de rendimiento más interesante provino de una evaluación de terceros realizada con Dyno Therapeutics, una empresa de terapia génica centrada en el diseño de proteínas de la cápside de AAV.
Utilizando secuencias de ARN inéditas y nunca antes vistas para proteger contra la contaminación de referencia, GPT-ROSALIND se probó en tareas de generación de secuencias y predicción de secuencia a función.
Según OpenAI y confirmado por varios medios que cubrieron el lanzamiento, los diez modelos principales presentados superaron al percentil 95 de expertos humanos en la tarea de predicción y al percentil 84 en generación de secuencia.
El lanzamiento conlleva importantes advertencias sobre el doble uso que OpenAI ha abordado a través de su modelo de acceso. Los investigadores advierten que los modelos de IA entrenados con datos biológicos podrían utilizarse indebidamente para ayudar a diseñar patógenos peligrosos.
La decisión de OpenAI de limitar el acceso únicamente a un programa de acceso confiable verificado, exigiendo que las organizaciones demuestren que están trabajando para mejorar los resultados de salud humana y mantener controles sólidos de seguridad y gobernanza, es una respuesta directa a esos riesgos. Durante la fase de vista previa de la investigación, el uso no utilizará los créditos de API existentes.




