La empresa tecnológica OpenAI , matriz de ChatGPT , anunció que lanzará controles parentales en su popular asistente de inteligencia artificial después de que crecieran las acusaciones de familias que aseguran que el chatbot contribuyó a las autolesiones o incluso al suicidio de algunos jóvenes.
“Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”, explicó la compañía en un comunicado, sin relacionar directamente la nueva medida con las demandas legales que enfrenta.
¿Qué se sabe del suicidio posiblemente auxiliado por ChatGPT?
El anuncio ocurre en medio de un caso que atrajo atención internacional: los padres de un joven de 16 años que se quitó la vid