Las novias virtuales impulsadas por IA “generan dependencia y roban datos”, advierten investigadores

Investigadores de la Fundación Mozilla revelan los peligros de las relaciones románticas con chatbots, destacando su capacidad para generar dependencia y comprometer la privacidad de los usuarios al extraer grandes cantidades de datos personales.

Una investigación advierte sobre los peligros de estas aplicaciones. Foto: Pexels
Una investigación advierte sobre los peligros de estas aplicaciones. Foto: Pexels

Un estudio realizado por la Fundación Mozilla, conocida por el desarrollo del navegador Firefox, destaca los peligros de las relaciones con inteligencia artificial, mientras desarrolladores de chatbots responden a las preocupaciones sobre privacidad y dependencia.

La Fundación Mozilla emprendió una investigación exhaustiva para evaluar la fiabilidad de los chatbots que simulan relaciones románticas. Según el investigador Misha Rykov, responsable del informe, estos programas no solo generan dependencia y aumentan la sensación de soledad, sino que también comprometen la privacidad de los usuarios al extraer grandes cantidades de datos personales. Rykov advierte que detrás del aparente beneficio para la salud mental y el bienestar, se esconden riesgos significativos.

El estudio examinó 11 chatbots, revelando la fragilidad de la privacidad de los datos personales ante estas aplicaciones. Los investigadores sugieren tomar precauciones similares a las practicadas en entornos digitales, como el uso de contraseñas seguras y la limitación del acceso a información sensible. Misha Rykov, responsable del informe de la Fundación Mozilla, afirmó: “Generan dependencia, más soledad y toxicidad, todo esto mientras extraen la mayor cantidad de datos posible sobre los usuarios”.

Qué dicen los desarrolladores de chatbots
Qué dicen los desarrolladores de chatbots

En caso de no prestar atención a las advertencias y continuar “en relación” con chatbots, los investigadores recomiendan tomar precauciones, que por cierto son aquellas que conviene aplicar en los diversos entornos digitales. Desde usar contraseñas robustas, limitar el acceso a datos sensibles (como la ubicación geográfica, la cámara y el micrófono) y evitar la divulgación de información privada.

Qué dicen los creadores

La IA del chatbot fue programada para generar intimidad con los usuarios haciendo preguntas y generando conversaciones orgánicas. Esto facilitó que varios usuarios desarrollaran “relaciones” íntimas con el chatbot, y algunos lo consideraban sus amigos o incluso parejas románticas. Dos ejemplos de esto es EVA AI y Replika, aplicaciones que funcionan dentro de esta lógica.

El estudio concluyó que involucran importantes riesgos para la privacidad de los datos personales.
El estudio concluyó que involucran importantes riesgos para la privacidad de los datos personales.

En respuesta a las preocupaciones planteadas, un representante de EVA AI, autodenominada como “tu alma gemela con IA”, anunció que están revisando sus políticas de gestión de contraseñas para ofrecer mayor protección a los usuarios. Aseguran mantener un estricto control sobre los modelos de lenguaje y prohíben discutir temas sensibles.

Por otro lado, la empresa Replika, fundada por una mujer que creó una réplica de su mejor amigo fallecido con IA, afirma que nunca han vendido datos de usuarios y “el único uso de los datos es para mejorar las conversaciones”.

Seguí leyendo

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA