Cuando usamos Gemini , ChatGPT o Grok , es fácil pensar que esa capacidad para producir resultados en pocos segundos roza lo extraordinario, incluso con sus fallos habituales. Pero no hay misterio: dependen de modelos entrenados con cantidades masivas de información. Ese proceso ha encendido un debate cada vez más intenso sobre cómo se utiliza todo ese contenido y hasta dónde llega el control de quienes lo generan. En ese clima aparece una propuesta que intenta poner cierto orden.
La extracción masiva de contenido. El crecimiento acelerado de la IA ha dejado al descubierto el mencionado fenómeno. Las compañías recurren a rastreadores propios y a conjuntos de datos elaborados por terceros que agregan material procedente de miles de sitios web. Para los editores, el problema no es so

Xataka

NTN24 Venezuela
AlterNet
Political Wire
6abc Action News Entertainment
CBS19 News Crime
Raw Story
America News