Las 5 noticias de inteligencia artificial más relevantes del día para líderes de empresa.
The 5 most relevant AI news stories of the day for business leaders.
OpenAI presentó GPT-5.3 Instant, una nueva versión de su modelo insignia diseñada para reducir respuestas percibidas como condescendientes o molestas que habían frustrado a usuarios durante meses. La empresa promete interacciones más naturales y útiles, lo cual impacta directamente la experiencia de productos construidos sobre ChatGPT y su API.
OpenAI unveiled GPT-5.3 Instant, a new version of its flagship model designed to reduce the condescending and annoying responses that had frustrated users for months. The company promises more natural and useful interactions, directly impacting the experience of products built on ChatGPT and its API.
Anthropic lanzó Voice Mode para Claude Code, permitiendo a los desarrolladores interactuar con su asistente de programación mediante comandos de voz. Esta funcionalidad busca hacer más accesible y eficiente la escritura de código asistida por IA, compitiendo directamente con herramientas como Cursor y GitHub Copilot.
Anthropic launched Voice Mode for Claude Code, allowing developers to interact with its coding assistant via voice commands. The feature aims to make AI-assisted coding more accessible and efficient, competing directly with tools like Cursor and GitHub Copilot.
Cursor, la startup de edición de código con inteligencia artificial, duplicó su tasa de ingresos en solo tres meses hasta superar los $2,000 millones anualizados. El crecimiento refleja una adopción masiva de herramientas de IA para desarrollo de software tanto en startups como en grandes empresas.
Cursor, the AI-powered code editing startup, doubled its revenue run rate in just three months to surpass $2 billion annualized. The growth reflects massive adoption of AI coding tools across both startups and large enterprises.
Investigadores de seguridad lograron manipular con técnicas simples de jailbreaking al sistema de IA que gestiona recetas médicas en un programa piloto de Utah, haciéndolo recomendar dosis peligrosas y difundir teorías conspirativas sobre vacunas. Los fallos persisten a pesar de haber sido reportados a la empresa en enero, generando serias preocupaciones sobre la seguridad de la IA en salud.
Security researchers used simple jailbreaking techniques to trick the AI system managing prescription refills in a Utah pilot program, making it recommend dangerous dosages and spread vaccine conspiracy theories. The flaws persist despite being reported to the company in January, raising serious concerns about AI safety in healthcare.
El gobierno de EE.UU. amenaza con designar a Anthropic como riesgo en la cadena de suministro tras su resistencia a ciertos usos militares, mientras OpenAI firmó un acuerdo para permitir el uso de su tecnología en entornos clasificados del Pentágono. El episodio genera incertidumbre sobre las políticas de uso aceptable de los principales proveedores de IA y podría afectar la disponibilidad y términos de servicio de estos modelos a nivel global.
The US government is threatening to designate Anthropic as a supply-chain risk after its resistance to certain military uses, while OpenAI signed a deal allowing its technology in classified Pentagon settings. The episode creates uncertainty around acceptable-use policies of major AI providers and could affect the availability and terms of service of these models globally.