play_arrow

keyboard_arrow_right

Listeners:

Top listeners:

skip_previous skip_next
00:00 00:00
chevron_left
  • play_arrow

    Hiperactiva Escucha a diario toda la música de moda, con los grandes éxitos de conocidos artistas internacionales, en esta emisora online que retransmite al resto del mundo desde Minas de Corrales, Uruguay.

Noticias Nacionales

la startup de IA que usaba 700 programadores para simular un chatbot

todayjunio 3, 2025

Fondo


Lo que se promocionaba como una de las plataformas más innovadoras de desarrollo no-code con inteligencia artificial, resultó ser un fraude sistemático basado en trabajo humano encubierto. La startup Builder.ai, con sede en Londres, usaba a 700 programadores en India para simular las respuestas y funciones de su IA llamada “Natasha”, según reveló una investigación de CNBC.

Builder.ai, que recaudó 445 millones de dólares en rondas de inversión y fue apoyada por gigantes como Microsoft y fondos soberanos de Catar, prometía crear aplicaciones con IA usando bloques modulares, comparables a piezas de Lego. Sin embargo, tras declararse en bancarrota y enfrentar la auditoría de sus acreedores, se descubrió que no existía tal IA funcional: detrás de cada interacción había trabajadores respondiendo manualmente, muchos de ellos mal remunerados.

El caso ha generado un nuevo escándalo en el ecosistema tecnológico global, donde la sobreventa de inteligencia artificial ha pasado de ser una práctica de marketing agresiva a una distorsión grave con consecuencias económicas y laborales.

La falsa promesa de la automatización

Builder.ai afirmaba que su sistema podía generar software en minutos, sin necesidad de programadores. Sin embargo, se valía de interacciones humanas disfrazadas de respuestas automatizadas, incluso en etapas que publicitaba como 100?% asistidas por IA. La práctica, que recuerda al fenómeno de los Mechanical Turks modernos, consistía en ocultar trabajo manual tras una interfaz tecnológica.

Implicaciones éticas y económicas

El modelo operaba sobre una lógica de externalización y precarización laboral, al mismo tiempo que captaba inversiones a nombre de una disrupción inexistente. El caso ha reabierto el debate sobre la veracidad de las promesas en el mercado de la IA, así como la necesidad de supervisión regulatoria más estricta ante startups que operan con opacidad.





Source link

Escrito por hiperactivafm


0%