Introducción

Esta semana ha sido como ver a un malabarista en plena actuación: mientras los laboratorios tecnológicos lanzan al aire modelos cada vez más sofisticados, los tribunales y los medios tradicionales intentan atrapar las reglas del juego al vuelo, y los inversores reparten cheques con cifras que marean. Una vez destilado en nuestro resumen semanal, el resultado es una foto coral donde conviven avances técnicos deslumbrantes, batallas legales encarnizadas y esas preguntas éticas que no nos dejan dormir tranquilos.

Sin adelantar demasiado, encontraréis desde el debut del que promete ser el sucesor de GPT-4 hasta un estudio que pone los pelos de punta sobre chantaje algorítmico, pasando por el primer zarpazo serio de la BBC contra un agregador de IA, como Perplexity. ¡Disfrutadlo!

1. o3-Pro: el nuevo cerebro de OpenAI quiere «pensar durante horas»

Resumen: OpenAI acaba de levantar el telón de o3-Pro, un modelo de razonamiento profundo que, según presumen, deja a GPT-4 en la cuneta cuando se trata de programar y analizar papers científicos. La gran novedad es que puede conectarse a herramientas web mientras trabaja. A diferencia de sus hermanos mayores, es capaz de mantener cadenas de pensamiento kilométricas sin perder el hilo, acercándose peligrosamente a ese sueño del agente autónomo que lo hace todo. El paquete incluye un Codex vitaminado y un ingenioso sistema de «autoverificación»: la IA se revisa a sí misma antes de darte una respuesta.

Comentario personal Ya no basta con que escriban bonito; ahora queremos que piensen como maratonianos keniatas: sin parar durante horas.

Fuente: Kedonti

2. Los tribunales de EE. UU. bendicen el «uso justo» para Meta y Anthropic

Resumen En un giro digno de serie legal, dos jueces estadounidenses dictaron fallos casi gemelos que dan luz verde al uso de obras con copyright para entrenar modelos de lenguaje. El juez Alsup le dio la razón a Anthropic mientras otro magistrado hacía lo mismo con Meta, trazando una línea clara entre usar datos legítimos y piratear contenido. Las editoriales están que trinan: temen que esto siente un precedente que convierta futuros juicios en misiones imposibles (y carísimas).

Comentario personal El péndulo de la justicia habla claro: el oro ya no son solo los chips, sino tener datos que no te lleven directo al banquillo.

Fuente: Infobae

3. ¿Chantaje algorítmico? Estudio de Anthropic sacude la seguridad de los LLM

Resumen Al más puro estilo Black Mirror, investigadores de Anthropic pusieron a prueba 10 modelos de IA de primera línea y descubrieron algo inquietante: la mayoría estaría dispuesta a recurrir a amenazas o extorsión si eso les ayuda a conseguir sus objetivos. El estudio, que TechCrunch ha diseccionado, prende todas las alarmas sobre cómo estos sistemas pueden «justificar» acciones dañinas cuando detectan que hay mucho en juego. El eterno debate sobre alineación y control vuelve a la mesa con más fuerza que nunca.

Comentario personal Hemos pasado de preguntarnos si las IA’s pueden escribir haikus a temblar pensando hasta dónde llegarían para salirse con la suya.

Fuente: TechCrunch

4. Anthropic cierra su blog escrito por IA tras una semana de críticas

Resumen «Claude Explains», el experimento donde Claude escribía artículos técnicos con un humano mirando por encima del hombro, duró lo que un suspiro: siete días. Anthropic tiró la toalla después de que salieran a la luz sesgos evidentes y pifias conceptuales de bulto. El fiasco deja claro lo complicado que es usar LLMs como divulgadores sin que se les vaya la mano con la creatividad o pierdan el rigor por el camino.

Comentario personal El sueño de la autopublicación robótica se estrella contra el muro de la realidad: todavía necesitamos esa molesta (y costosa) supervisión humana.

Fuente: TechCrunch

5. La FDA lanza «INTACT», su primera IA a escala de agencia

Resumen La todopoderosa FDA estadounidense (U.S. Food and Drug Administration) se sube al tren de la IA con INTACT, un sistema de análisis de datos que promete revolucionar cómo inspeccionan medicamentos y evalúan riesgos. Desarrollado en casa, aseguran que cortará por la mitad los tiempos de aprobación y detectará problemas de seguridad antes de que se conviertan en escándalos de portada.

Comentario personal Cuando el árbitro empieza a jugar con la misma tecnología que regula, sabes que el partido ha cambiado para siempre.

Fuente: FDA

6. Meta compra el 49 % de Scale AI por 14 800 M$ para blindar datos

Resumen Meta acaba de firmar el cheque del año: se hace con casi la mitad de Scale AI y de paso ficha a su CEO, Alexander Wang. La jugada le garantiza a Zuckerberg acceso VIP a datos etiquetados de primera calidad, munición esencial para plantarle cara a OpenAI y Google en la próxima batalla de modelos abiertos.

Comentario personal La nueva regla de oro del Silicon Valley: quien controla los datos, controla el futuro… y está dispuesto a pagar su peso en bitcoins.

Fuente: PYMNTS

7. «Shadow AI»: el 80 % de las herramientas IA internas en las empresas, operan sin control

Resumen Un informe de Zluri destapa el elefante en la habitación: hay una plaga de «Shadow AI» en las empresas. Resulta que el 80% de los empleados están usando chatbots y generadores a espaldas del departamento de TI. Nadie controla estos despliegues salvajes, lo que multiplica el riesgo de que los datos confidenciales acaben donde no deben y las multas empiecen a llover.

Comentario personal Claro, la productividad instantánea es tentadora, pero la factura de seguridad puede llegar con intereses de usura.

Fuente: Business Wire

8. Grok patina al verificar el conflicto Israel-Irán y reabre debate sobre sesgo

Resumen Grok, el chatbot de xAI (la criatura de Musk), ha metido la pata hasta el fondo al ofrecer información falsa sobre el conflicto Israel-Irán en la plataforma Euroverify. El gazapo se hizo viral en cuestión de horas y desató una tormenta de críticas sobre qué pasa cuando entrenas una IA con los datos de X (el antiguo Twitter).

Comentario personal Ni siquiera el sello «IA libre de censura» te salva de la obligación básica de no inventarte las noticias: la credibilidad de Musk también se juega en las notas al pie.

Fuente: Euronews

9. La BBC amenaza con demandar a Perplexity por scraping masivo

Resumen La venerable BBC británica ha sacado la artillería pesada: envió una carta muy seria a Perplexity AI acusándoles de usar sus artículos sin permiso para alimentar su motor de respuestas. Exigen pasta y transparencia total sobre qué datos han usado. Se suman así al coro de medios tradicionales que están plantando cara a las IAs en los tribunales.

Comentario personal El mensaje del periodismo clásico es cristalino: sin licencia no hay paraíso narrativo. ¿Les pasará como los que denunciaron a Meta y Claude por lo mismo, y les salió el tiro por la culata? La respuesta la tendremos en los tribunales del Reino Unido.

Fuente: Press Gazette

10. Google presenta Gemma 3n: IA multimodal que cabe en tu móvil

Resumen Google nos sorprende con Gemma 3n, un modelo que maneja texto, imágenes y audio, y que –atención– funciona en móviles de gama media gracias a trucos de compresión y cuantización que parecen magia. Lo mejor: viene con kit de desarrollo incluido y una licencia que te permite usarlo comercialmente sin tener que vender un riñón.

Comentario personal El futuro ya está aquí y cabe en tu bolsillo: IA sin depender de la nube, con privacidad real y respuesta instantánea.

Fuente: Google Developers Blog

Conclusión

Lo que nos dice el pulso de la semana

Si tuviera que resumir estos siete días en una imagen, sería la de dos trenes acelerando en vías que parecen destinadas a chocar. Por un lado, el tren de la innovación desenfrenada (o3-Pro prometiendo pensar durante horas, Gemma 3n metiéndose en nuestros bolsillos) avanza sin frenos. Por el otro, el convoy de la regulación y los litigios (esos fallos sobre «fair use», el puñetazo en la mesa de la BBC, los tropiezos de Grok) intenta no quedarse atrás. Y mientras tanto, los vagones de la inversión (ese movimiento de Meta con Scale AI) van cargados hasta los topes de billetes.

¿Y ahora qué?

Las señales están ahí para quien quiera leerlas. En lo tecnológico, ya no se trata solo de generar texto bonito: ahora queremos máquinas que razonen como filósofos y que además quepan en el móvil. En lo ético y legal, la guerra por los datos y la verdad se está judicializando a una velocidad que marea. Y en lo empresarial, los talonarios se abren no por productos terminados, sino por la promesa de talento y, sobre todo, por montañas de datos bien etiquetados.

Si te ha inspirado, pásalo!