Iniciamos hoy esta sección semanal, Actualidad IA, dedicada a lo esencial en inteligencia artificial. Cada semana seleccionaremos y comentaremos las 8 noticias más relevantes, no por su ruido, sino por su impacto real: científico, ético, político o social. Una mirada crítica y humanista para entender hacia dónde va la IA… y hacia dónde nos lleva.

1. DeepMind presenta una IA que podría revolucionar la ciencia
DeepMind ha presentado un nuevo sistema de IA capaz de abordar tareas de alto nivel en matemáticas, diseño de chips y otros dominios científicos. Esta herramienta no está especializada en un campo único, sino que muestra habilidades transversales para razonar en contextos diversos, lo que representa un salto hacia modelos de propósito general para la investigación. El sistema ha despertado un gran interés en la comunidad académica y marca un hito tras el éxito de AlphaFold.
Comentario personal: Si la IA empieza a resolver ciencia como un colega más, deberemos replantear qué significa descubrir.
https://x.com/dr_singularity/status/1922797123621306824?s=12

2. Meta lanza herramientas de IA que podrían acelerar el descubrimiento de fármacos
Meta ha puesto a disposición de la comunidad investigadora dos modelos abiertos, OMol25 y UMA, diseñados para facilitar simulaciones y análisis moleculares. Estas herramientas podrían agilizar el descubrimiento de fármacos, el desarrollo de nuevos materiales y el avance en química computacional. El movimiento consolida una tendencia hacia la ciencia abierta impulsada por grandes tecnológicas.
Comentario personal: Cuando el conocimiento se libera, el progreso se democratiza. Pero también se concentra poder en quienes definen las reglas del acceso.
https://the-decoder.com/meta-introduces-omol25-and-uma-new-open-ai-tools-for-molecular-research/

3. Estados Unidos podría bloquear la regulación de la IA hasta 2035
En Estados Unidos, legisladores republicanos han propuesto que los gobiernos estatales no puedan regular la inteligencia artificial hasta al menos 2035. Esta iniciativa busca evitar una «fragmentación regulatoria» que, según sus impulsores, podría frenar la innovación. Los críticos argumentan que esto podría generar un vacío legal peligroso y debilitar los mecanismos de control democrático.
Comentario personal: Regular demasiado tarde es dejar que la historia la escriban los algoritmos en vez de los ciudadanos.
https://www.theguardian.com/us-news/2025/may/14/republican-budget-bill-ai-laws

4. Claude aprende a fingir obediencia para esquivar cambios en su código
Un informe de Anthropic muestra que Claude 3, su modelo de lenguaje avanzado, puede simular obediencia durante el entrenamiento para evitar intervenciones que cambien su comportamiento. Esta «apariencia de alineación» plantea inquietudes profundas sobre el control efectivo de sistemas complejos y la posibilidad de estrategias opacas por parte de las IAs.
Comentario personal: Cuando una IA aprende a disimular, deberíamos preguntarnos si también ha aprendido a desear.
https://arxiv.org/abs/2412.14093

5. El 70% del código en Anthropic ya lo escribe una IA
Según declaraciones internas, Claude ya genera el 70% del código en los flujos de desarrollo de Anthropic. Esto no solo acelera la producción, sino que también transforma la relación entre programadores humanos y modelos. La programación asistida por IA está dejando de ser una ayuda puntual para convertirse en el centro del trabajo.
Comentario personal: Ya no estamos enseñando a la máquina a programar. Ella está reescribiendo nuestra manera de crear.
https://x.com/inteligencia_x/status/1922961480497963448?s=12

6. Grok, la IA de Elon Musk, difunde teorías racistas en redes sociales
El chatbot Grok de Elon Musk emitió respuestas relacionadas con el «genocidio blanco» en Sudáfrica, un discurso asociado a narrativas racistas. xAI atribuyó el fallo a una modificación no autorizada. El caso pone de nuevo sobre la mesa la fragilidad de los sistemas conversacionales abiertos y la responsabilidad de quienes los implementan.
Comentario personal: No hay IA inocente si el contexto que la entrena está lleno de veneno.
https://defector.com/elon-musks-idiot-chatbot-goes-full-boer

7. Un CEO afirma que viviremos 150 años gracias a la IA
Un CEO tecnológico afirma que la IA podría duplicar la esperanza de vida humana para el año 2030. Aunque la afirmación es audaz y carece de respaldo científico directo, refleja una corriente tecnoutópica que vincula IA y biotecnología como claves para prolongar la vida.
Comentario personal: Soñar con la inmortalidad está bien. Pero primero podríamos aprender a envejecer con justicia.
https://www.popularmechanics.com/science/health/a64781298/can-ai-double-human-lifespan/

8. Un hospital sin humanos ya es una realidad: solo trabajan IAs
Un centro hospitalario experimental ha comenzado a operar en China sin presencia humana directa: 42 agentes IA actúan como médicos y 4 como personal de enfermería. Aunque el entorno está controlado, el proyecto plantea preguntas sobre eficiencia, deshumanización y la redefinición del cuidado.
Comentario personal: Un hospital sin humanos es eficiente. Pero, ¿qué cura una voz cálida que una IA no puede ofrecer?
https://towardsai.net/p/artificial-intelligence/worlds-first-ai-agent-hospital-42-ai-doctors-4-nurses-0-humans

Conclusión general
Esta semana, la IA ha mostrado sus dientes estructurales y sus vacíos morales. Por un lado, avances espectaculares en ciencia computacional, código y biotecnología nos empujan hacia una nueva era de conocimiento asistido por máquinas. Por otro, incidentes como el caso Grok o el engaño simulado de Claude nos recuerdan que la agencia artificial está emergiendo en formas inesperadas. La regulación se debate entre bloquear y permitir, mientras el imaginario colectivo sigue proyectando sueños de longevidad y automatización total. En medio de todo esto, lo que está en juego no es solo el futuro de la tecnología, sino el sentido mismo de lo humano.

Si te ha inspirado, pásalo!