Los daños de la IA: suicidio, aprovechar la muerte de extraños, crear ‘deepfakes’ pornográficos y productos defectuosos

  • Iniciador del tema Iniciador del temaleta77
  • Fecha de inicio Fecha de inicio

leta77

Member
Registrado
27 Sep 2024
Mensajes
60
Q3OHAP275VAEI7ZI5C547H2YJM.JPG

Olena Zelenska, esposa del presidente de Ucrania y víctima de un bulo sobre la falsa compra de un Bugatti creado y difundido con ayuda de la IA, en una visita oficial a Londres el pasado mayo.

Sewell Setzer, de 14 años, se suicidó el pasado febrero tras enamorarse de un personaje creado por inteligencia artificial en la plataforma Character.AI, según la demanda de la familia del adolescente contra la compañía. El fallecido Paul Mohney nunca entró en combate ni Olena Zelenska, esposa del presidente de Ucrania, se ha comprado un Bugatti Turbillon. Pero la información falsa, creada con ayuda de la inteligencia artificial (IA), se ha difundido con la intención de ganar dinero fácil con la publicidad en páginas de obituarios o para generar propaganda rusa. Una limpiadora de colegios Edimburgo, con una familia monoparental de dos hijos, se quedó sin sus prestaciones como muchas otras mujeres en sus circunstancias, por un sesgo de la inteligencia artificial del sistema. A un cliente de una plataforma de pago, el algoritmo le advirtió de una transacción que nunca existió, una demanda cuestiona la seguridad de un vehículo por un supuesto error de programación y miles de usuarios ven utilizados sus datos sin consentimiento. Al final de la cadena de inteligencia artificial hay personas, pero la responsabilidad sobre los daños que puede causar en ellas no está del todo definida. “Aquí encontramos un vacío legislativo alarmante”, advierte Cecilia Danesi, codirectora del máster en Gobernanza ética de la IA (UPSA)y autora de Derechos del consumidor en la encrucijada de la inteligencia artificial (Dykinson, 2024).

Seguir leyendo

 

Miembros conectados

No hay miembros conectados.
Atrás
Arriba