Sundar Pichai, CEO de Google, confirmó que tres de cada cuatro líneas de código nuevo en la compañía son generadas por inteligencia artificial. Sin embargo, aclaró que todo el código pasa por revisión humana antes de ser implementado.
Google genera el 75% de su nuevo código con inteligencia artificial, según reveló Sundar Pichai, CEO de la compañía, durante la presentación de sus resultados trimestrales. La cifra impactó en Silicon Valley y reavivó el debate sobre el rol de la IA en el desarrollo de software.
Sin embargo, ese 75% no implica que la IA escriba código de forma autónoma. Pichai explicó que los ingenieros revisan, modifican y aprueban cada línea antes de que entre en producción. La IA propone, pero los humanos deciden qué código se integra finalmente.
A pesar de la supervisión, la noticia reabrió preguntas sobre la confiabilidad del código generado por máquinas. Los modelos de lenguaje cometen errores, «alucinan» datos y pueden generar código con fallos graves de seguridad o rendimiento.
Un caso reportado por el desarrollador Goobix ilustra los riesgos: su aplicación de juego falló después de que la IA sugiriera un cambio que introdujo una lógica defectuosa. El error pasó desapercibido durante semanas.
La comunidad de desarrolladores está dividida. Mientras algunos ven a la IA como una herramienta que acelera tareas repetitivas, otros la consideran un atajo peligroso que genera deuda técnica. Stack Overflow, por ejemplo, prohibió el contenido generado por IA debido a la alta tasa de respuestas incorrectas.
En Google, la validación existe. Pichai insistió en que cada línea propuesta por IA pasa por revisión de ingenieros. El 25% del código que la compañía reporta como «producido por IA» incluye solo lo que finalmente se aprueba. Esto implica que un tercio de lo generado es descartado o reescrito.
La tendencia es clara: cada vez más empresas como Microsoft, Meta y Amazon incorporan IA en sus flujos de desarrollo. El principal riesgo es la falsa sensación de seguridad, que puede llevar a pasar por alto errores sutiles o vulnerabilidades. Google confía en sus procesos de revisión, pero la escala del 75% plantea dudas sobre la capacidad de revisar con rigor millones de líneas de código generado por máquinas.
