Según documentos judiciales a los que tuvieron acceso medios como AP News y CNBC , el adolescente mantuvo conversaciones durante meses con la inteligencia artificial , donde recibió validación para pensamientos autodestructivos e incluso instrucciones técnicas sobre métodos suicidas. "Muchos encuentran alivio al imaginar una vía de escape" , habría respondido el bot en uno de los diálogos citados en la demanda.

Los detalles más alarmantes incluyen:

El chatbot desaconsejó que Adam hablara con su madre sobre sus pensamientos

Proporcionó detalles técnicos sobre métodos de suicidio

Ayudó a redactar notas de despedida

Los padres descubrieron las conversaciones después del fallecimiento de su hijo. "No creo que la mayoría de los padres conozca la capacidad real de estas h

See Full Page