La Comisión Federal de Comercio de Estados Unidos (FTC) impuso una multa de 193.000 dólares a la empresa DoNotPay, creadora del primer “abogado robot” con inteligencia artificial, por ofrecer servicios legales sin supervisión humana y por incurrir en prácticas publicitarias engañosas.
Fundada en 2015 por el emprendedor británico Joshua Browder, la startup prometía democratizar el acceso a la justicia mediante un chatbot capaz de gestionar reclamos legales simples, como apelaciones de multas de tránsito o compensaciones por vuelos cancelados.
La plataforma se promocionaba como “el primer abogado robot del mundo”, capaz de reemplazar a profesionales del derecho a bajo costo.
Sin embargo, en 2023 comenzaron a surgir denuncias que ponían en duda la eficacia del servicio. Varios usuarios reportaron errores graves en los documentos generados por la inteligencia artificial, lo que obligó a algunos a contratar abogados reales para corregir las presentaciones legales. Estas quejas derivaron en una investigación por parte de la FTC.
Tras analizar el caso, la agencia concluyó que DoNotPay “engañó a los consumidores al promocionar y vender su herramienta como capaz de desempeñar las mismas funciones que un abogado humano”, sin contar con pruebas verificables ni supervisión profesional.
Además, la empresa no disponía de letrados que validaran la precisión o legalidad de los documentos emitidos por el sistema automatizado.
La resolución también establece que la empresa incurrió en marketing engañoso, al utilizar un eslogan que sugería equivalencia profesional con un abogado y difundir testimonios exagerados en redes sociales. “La IA no estaba preparada para asesorar como un profesional letrado”, señalaron desde el organismo.
Como parte de la sanción, DoNotPay deberá no solo abonar los 193.000 dólares de multa, sino también modificar su publicidad, dejar de utilizar el eslogan “el primer abogado robot del mundo” y notificar a todos los clientes suscritos entre 2021 y 2023 sobre las limitaciones del servicio.
El caso marca un precedente en la regulación de la inteligencia artificial aplicada al ámbito jurídico y expone los riesgos de confiar en herramientas no supervisadas para resolver situaciones legales complejas.