martes, 28 abril, 2026

Google revela que el 75% de su nuevo código es generado por IA y reabre el debate sobre el futuro del desarrollo

Sundar Pichai, CEO de Google, anunció que tres de cada cuatro líneas de código nuevo en la compañía tienen origen en inteligencia artificial. Sin embargo, el dato no implica autonomía total: los ingenieros revisan y aprueban cada línea antes de su implementación.

Google genera el 75% de su nuevo código con inteligencia artificial. El dato lo reveló Sundar Pichai, CEO de la compañía, durante la presentación de sus últimos resultados trimestrales. La cifra impactó en Silicon Valley. Tres de cada cuatro líneas de código nuevo que escribe el gigante tecnológico tienen origen en máquinas, no en humanos. Pero la realidad es más matizada de lo que parece.

Ese 75% no significa que la IA escriba código de forma autónoma: los ingenieros revisan, modifican y aprueban todo antes de que entre en producción. Pichai fue claro al respecto. La IA propone, pero los humanos deciden qué código finalmente se integra. El proceso sigue bajo control de desarrolladores de carne y hueso.

Aun así, la cifra reabrió un debate que viene desde hace años. ¿Se puede confiar en el código que genera una máquina? La inteligencia artificial no es infalible. Los modelos de lenguaje cometen errores, «alucinan» datos y generan código que puede tener fallos graves. Las alucinaciones son uno de los riesgos más conocidos. La IA inventa funciones que no existen, mezcla sintaxis de diferentes lenguajes o sugiere bibliotecas obsoletas.

También hay problemas de seguridad. El código generado puede incluir vulnerabilidades que pasan desapercibidas en una primera revisión. Un ejemplo concreto lo vivió un desarrollador llamado Goobix. Su aplicación de juego empezó a fallar después de que la IA sugiriera un cambio. El error estuvo escondido durante semanas hasta que un usuario reportó el problema, y cuando revisaron el código descubrieron que la IA había introducido una lógica defectuosa.

Casos como ese no son aislados. Muchos desarrolladores reportan que las herramientas de IA generan código que compila, pero que tiene bugs sutiles o mal rendimiento. La comunidad de desarrolladores está dividida. Algunos ven la IA como un aliado que acelera el trabajo repetitivo. Otros la consideran un atajo peligroso que genera deuda técnica.

Stack Overflow, una de las plataformas más grandes de programadores, prohibió el contenido generado por IA hace un par de años. La razón fue clara: había demasiadas respuestas incorrectas que confundían a los usuarios. La decisión generó polémica. Muchos argumentaron que la IA podía ser útil si se usaba con criterio. Pero la plataforma mantuvo su postura: el código generado por máquinas necesita validación humana exhaustiva.

En Google, esa validación existe. Pichai insistió en que cada línea de código que propone la IA pasa por revisión de ingenieros. El porcentaje del 25% de código producido por IA que mencionó incluye solo lo que finalmente se aprueba. Pero la pregunta persiste: ¿qué tan rigurosa es esa revisión cuando el volumen de código generado es tan alto?

El dato de Google hay que leerlo con contexto. Que el 75% del código nuevo tenga origen en IA no significa que Google dependa ciegamente de las máquinas: significa que los ingenieros usan IA como herramienta de productividad, pero el control final sigue siendo humano. La diferencia entre «generado» y «producido» es clave. Google reporta que el 25% de su código es producido por IA, lo que implica que un tercio de lo que la IA genera termina siendo descartado o reescrito.

Esa tasa de rechazo muestra que la IA aún no es perfecta. Los desarrolladores detectan errores, mejoran el código sugerido y muchas veces reescriben secciones completas. Sin embargo, la tendencia es clara: cada vez más compañías incorporan IA en sus flujos de desarrollo. Google no es la única. Microsoft, Meta y Amazon también usan modelos de lenguaje para acelerar la producción de software.

El principal riesgo es la falsa sensación de seguridad. Un desarrollador que confía demasiado en la IA puede pasar por alto errores sutiles que luego explotan en producción. Las vulnerabilidades de seguridad son especialmente preocupantes. La IA puede sugerir código que parece funcionar pero que abre puertas a ataques. También está el problema de la deuda técnica. El código generado por IA tiende a ser funcional pero no siempre óptimo. Con el tiempo, eso puede acumular problemas de mantenimiento.

Google confía en que sus procesos de revisión mitigan estos riesgos. Pero la escala del 75% plantea dudas: ¿es posible revisar con rigor millones de líneas de código generado por máquinas? La respuesta probablemente esté en el equilibrio. La IA puede ser una herramienta poderosa si se usa con criterio, supervisión constante y procesos de validación robustos. Sin eso, el riesgo de errores masivos crece exponencialmente.

Más Noticias

Noticias
Relacionadas

La App YPF ahora permitirá ganar rendimientos por el dinero disponible en cuenta

YPF Digital y Santander Argentina lanzan una funcionalidad para generar rendimientos automáticos sobre el saldo disponible en la App YPF. Disponible desde mayo.

La Justicia decretó la quiebra de SanCor

La Justicia decretó la quiebra de SanCor tras su concurso preventivo. La empresa no pudo cumplir con el plan de pagos y ahora inicia el proceso de liquidación.

Fundación Cígesar admite su participación en procedimientos en la clínica de Villa Ballester

La ONG reconoció haber alquilado instalaciones de la Clínica Santa María para realizar interrupciones legales del embarazo, en el marco de una investigación judicial por el hallazgo de ocho fetos.

Agenda copera: Días y horarios de los equipos argentinos en la Fecha 3

Conocé los días, horarios y pantallas de los partidos de los equipos argentinos en la Fecha 3 de la Copa Libertadores y Sudamericana.