Lo que se promocionaba como una de las plataformas más innovadoras de desarrollo no-code con inteligencia artificial, resultó ser un fraude sistemático basado en trabajo humano encubierto. La startup Builder.ai, con sede en Londres, usaba a 700 programadores en India para simular las respuestas y funciones de su IA llamada “Natasha”, según reveló una investigación de CNBC.
Builder.ai, que recaudó 445 millones de dólares en rondas de inversión y fue apoyada por gigantes como Microsoft y fondos soberanos de Catar, prometía crear aplicaciones con IA usando bloques modulares, comparables a piezas de Lego. Sin embargo, tras declararse en bancarrota y enfrentar la auditoría de sus acreedores, se descubrió que no existía tal IA funcional: detrás de cada interacción había trabajadores respondiendo manualmente, muchos de ellos mal remunerados.
El caso ha generado un nuevo escándalo en el ecosistema tecnológico global, donde la sobreventa de inteligencia artificial ha pasado de ser una práctica de marketing agresiva a una distorsión grave con consecuencias económicas y laborales.
La falsa promesa de la automatización
Builder.ai afirmaba que su sistema podía generar software en minutos, sin necesidad de programadores. Sin embargo, se valía de interacciones humanas disfrazadas de respuestas automatizadas, incluso en etapas que publicitaba como 100?% asistidas por IA. La práctica, que recuerda al fenómeno de los Mechanical Turks modernos, consistía en ocultar trabajo manual tras una interfaz tecnológica.
Implicaciones éticas y económicas
El modelo operaba sobre una lógica de externalización y precarización laboral, al mismo tiempo que captaba inversiones a nombre de una disrupción inexistente. El caso ha reabierto el debate sobre la veracidad de las promesas en el mercado de la IA, así como la necesidad de supervisión regulatoria más estricta ante startups que operan con opacidad.