Opinión Articulistas

Caso Amazon y la IA que genera código malo

Caso Amazon y la IA que genera código malo

Dejar que la IA lo haga todo por nosotros parece una magnífica idea. Al menos esa es la narrativa que se ha instalado: mientras la inteligencia artificial trabaja, nosotros podemos dedicarnos a partes más estratégicas del negocio o, en el caso individual, al ocio.En teoría suena muy bien. En la práctica, sin embargo, puede ser la receta perfecta para un desastre.

A todos nos ha pasado. Usamos una herramienta de inteligencia artificial esperando eficiencia y terminamos atrapados en un pequeño círculo de frustración. Le pedimos algo, lo entrega mal. Señalamos el error, vuelve a fallar. Ajustamos la instrucción y el resultado regresa con otro problema. Después de varios intentos, uno termina resolviendo el asunto por la vía tradicional.

Ese fastidio cotidiano es manejable cuando ocurre en una consulta cualquiera. Pero ahora traslademos ese escenario al funcionamiento diario de una empresa del tamaño de Amazon. En ese contexto, los errores dejan de ser una molestia y pasan a tener consecuencias muy reales para el negocio.

No es casual que el ejemplo venga precisamente de ahí. La compañía decidió imponer una pausa de 90 días en actualizaciones de código generado por inteligencia artificial tras experimentar una serie de fallos críticos asociados a Q, su asistente de programación basado en machine learning.

En cuestión de días la empresa registró varios incidentes clasificados como severidad-1, el nivel más crítico dentro de sus sistemas internos. Uno de ellos ocurrió el 2 de marzo, cuando los clientes comenzaron a ver tiempos de entrega incorrectos dentro de la plataforma. El fallo generó más de 1.6 millones de errores en el sitio y terminó provocando la pérdida de unos 120 mil pedidos.

Pero el episodio más grave llegó poco después. Un despliegue de software que se saltó procesos formales de revisión provocó una caída del 99 por ciento en las órdenes dentro del mercado norteamericano durante varias horas. El resultado: unos 6.3 millones de pedidos perdidos.

La revisión posterior apuntó a la herramienta automatizada utilizada por los desarrolladores como uno de los factores detrás del problema. El asistente de inteligencia artificial había introducido cambios que terminaron afectando el funcionamiento de la plataforma.

Ante este panorama, la compañía decidió introducir lo que internamente describe como “fricción controlada” en los sistemas más sensibles de su operación. En términos simples, significa añadir más verificaciones y controles humanos en aquellas partes de la plataforma donde un error puede tener impacto directo sobre el cliente.

El contexto ayuda a entender por qué este tema empieza a preocupar dentro de la industria. Hoy cerca del 80 por ciento de los programadores de Amazon utiliza herramientas de inteligencia artificial para escribir código al menos una vez por semana. La automatización del desarrollo de software ya no es una promesa futura; es parte del flujo normal de trabajo.

El problema aparece cuando esa automatización se extiende hacia los llamados planos de control, las capas que gobiernan el funcionamiento de toda la infraestructura tecnológica. Cuando los errores se producen allí, el impacto se multiplica.

La ironía es evidente: la tecnología que promete eficiencia absoluta también puede introducir un nuevo tipo de fragilidad cuando se integra demasiado rápido y con demasiada confianza. Amazon, al parecer, acaba de recibir una demostración bastante cara de ese principio.