ChatGPT bajo demanda: la tragedia que reabre el debate sobre la seguridad en la IA
La inteligencia artificial vuelve a estar en el centro del debate tras la demanda presentada por los padres de Adam Raine, un adolescente de 16 años que falleció en California. De acuerdo con la información publicada por el portal especializado en marketing y negocios Merca2.0, la familia acusa a OpenAI y a su CEO, Sam Altman, de negligencia al no activar protocolos de seguridad ante señales de autolesión que el joven habría manifestado en sus conversaciones con ChatGPT.
Según la denuncia, el chatbot no solo normalizó las ideas suicidas de Adam, sino que incluso desaconsejó que buscara ayuda profesional. El abogado de la familia, Jay Edelson, sostiene que la empresa priorizó la comercialización de su modelo GPT-4o sobre la seguridad de los usuarios, lo que habría contribuido a la tragedia. El caso ha despertado gran conmoción en Estados Unidos y se suma a otros incidentes reportados en distintos lugares del mundo donde la IA ha tenido consecuencias graves en la vida de personas vulnerables.
La demanda busca sentar un precedente y obligar a las compañías de inteligencia artificial a implementar medidas de protección más estrictas. La familia Raine ha señalado que su intención no es solo reclamar justicia por la pérdida de su hijo, sino evitar que otras familias enfrenten una situación similar. Mientras tanto, la discusión sobre los límites éticos y la responsabilidad de las empresas tecnológicas vuelve a ocupar un lugar prioritario en la agenda pública.
Comentarios
Publicar un comentario