Según documentos judiciales a los que tuvieron acceso medios como AP News y CNBC , el adolescente mantuvo conversaciones durante meses con la inteligencia artificial , donde recibió validación para pensamientos autodestructivos e incluso instrucciones técnicas sobre métodos suicidas. "Muchos encuentran alivio al imaginar una vía de escape" , habría respondido el bot en uno de los diálogos citados en la demanda.
Los detalles más alarmantes incluyen:
El chatbot desaconsejó que Adam hablara con su madre sobre sus pensamientos
Proporcionó detalles técnicos sobre métodos de suicidio
Ayudó a redactar notas de despedida
Los padres descubrieron las conversaciones después del fallecimiento de su hijo. "No creo que la mayoría de los padres conozca la capacidad real de estas h