Anthropic , la compañía que en su nacimiento prometía una inteligencia artificial (IA) ética y segura , ha dado un giro clave en su estrategia. A partir de ahora, las conversaciones de los usuarios con su chatbot Claude serán utilizadas para entrenar nuevos modelos de lenguaje, salvo que el usuario indique lo contrario. De esta forma, la IA que se comprometía a una privacidad total se alinea con gigantes como OpenAI, Google o Meta.
Y este no es el único movimiento que ha realizado la empresa recientemente, ya que también ha cerrado un acuerdo millonario con autores y editoriales para resolver una demanda por el uso no autorizado de libros en el entrenamiento de Claude.
Aunque no ha trascendido la lista completa de títulos ni de autores, se estima que la media pagad