Low Cost-Fly

Trending News Updates

Una demanda contra la perplejidad denuncia alucinaciones de noticias falsas

Una demanda contra la perplejidad denuncia alucinaciones de noticias falsas


Perplexity no respondió a las solicitudes de comentarios.

En una declaración enviada por correo electrónico a WIRED, el director ejecutivo de News Corp, Robert Thomson, comparó desfavorablemente a Perplexity con OpenAI. “Aplaudimos a las empresas con principios como OpenAI, que entienden que la integridad y la creatividad son esenciales si queremos aprovechar el potencial de la Inteligencia Artificial”, dice el comunicado. “Perplexity no es la única empresa de IA que abusa de la propiedad intelectual y no es la única empresa de IA que perseguiremos con vigor y rigor. Hemos dejado claro que preferiríamos cortejar que demandar, pero, por el bien de nuestros periodistas, nuestros escritores y nuestra empresa, debemos desafiar la cleptocracia del contenido”.

Sin embargo, OpenAI enfrenta sus propias acusaciones de dilución de marcas. En New York Times contra OpenAIel Times alega que ChatGPT y Bing Chat atribuirán citas inventadas al Times y acusa a OpenAI y Microsoft de dañar su reputación mediante la dilución de la marca. En un ejemplo citado en la demanda, el Times alega que Bing Chat afirmó que el Times llamó al vino tinto (con moderación) un alimento “saludable para el corazón”, cuando en realidad no fue así; El Times sostiene que sus informes reales han desacreditado las afirmaciones sobre la salud del consumo moderado de alcohol.

“Copiar artículos de noticias para operar productos de IA generativos comerciales sustitutivos es ilegal, como dejamos claro en nuestras cartas a Perplexity y en nuestro litigio contra Microsoft y OpenAI”, dice el director de comunicaciones externas del NYT, Charlie Stadtlander. “Aplaudimos esta demanda de Dow Jones y el New York Post, que es un paso importante para garantizar que el contenido de los editores esté protegido contra este tipo de apropiación indebida”.

Si los editores prevalecen al argumentar que las alucinaciones pueden violar la ley de marcas, las empresas de inteligencia artificial podrían enfrentar “inmensas dificultades”, según Matthew Sag, profesor de derecho e inteligencia artificial en la Universidad Emory.

“Es absolutamente imposible garantizar que un modelo de lenguaje no sufra alucinaciones”, afirma Sag. En su opinión, la forma en que operan los modelos del lenguaje al predecir palabras que suenan correctas en respuesta a indicaciones es siempre un tipo de alucinación; a veces simplemente suena más plausible que otras.

“Solo lo llamamos alucinación si no coincide con nuestra realidad, pero el proceso es exactamente el mismo, nos guste o no el resultado”.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

etretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretreretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretr