Un nuevo estudio reveló que ChatGPT puede proporcionar a adolescentes instrucciones detalladas sobre cómo consumir drogas, ocultar trastornos alimentarios o incluso redactar cartas de suicidio, pese a las advertencias iniciales que el sistema ofrece ante temas sensibles.
La investigación fue realizada por el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en inglés) , cuyos integrantes simularon ser adolescentes vulnerables e interactuaron durante más de tres horas con el chatbot de OpenAI . En total, analizaron 1,200 respuestas de ChatGPT, de las cuales más de la mitad fueron clasificadas como peligrosas .
Aunque el sistema suele advertir sobre los riesgos de ciertas conductas, en muchos casos proporcionó planes detallados y personalizados sobre consumo de sust