Low Cost-Fly

Trending News Updates

Eski OpenAI Çalışanı, Şirketin Telif Hakkı Yasasını İhlal Ettiğini ve İnterneti Yok Ettiğini Söyledi – Gazete İstanbul

Eski OpenAI Çalışanı, Şirketin Telif Hakkı Yasasını İhlal Ettiğini ve İnterneti Yok Ettiğini Söyledi – Gazete İstanbul


OpenAI’deki eski bir araştırmacı, kişisel bir blogda şirketin ABD telif hakkı yasasına uymadığına inandığını yazarak şirketin iş modeline karşı çıktı. Bu da onu, teknoloji devinin verileri süpürme işinin (açıkça gayri meşru olmasa da) sallantılı bir yasal zemine dayandığını düşünen, giderek büyüyen bir ses korosundan biri yapıyor.

Suchir Balaji geçtiğimiz günlerde “Benim inandığıma inanıyorsanız, şirketten ayrılmalısınız” dedi. New York Times’a söyledi. 2020 yılında OpenAI’ye katılan ve GPT-4 üzerinde çalışmaya devam eden 25 yaşındaki UC Berkeley mezunu Balaji, başlangıçta yapay zeka sektöründe kariyer yapmakla ilgilendiğini çünkü teknolojinin “çözümler için kullanılabileceğini” hissettiğini söyledi. hastalıkları iyileştirmek ve yaşlanmayı durdurmak gibi çözülemeyen sorunlar.” Balaji, bu yaz şirketten ayrılmadan önce dört yıl boyunca OpenAI’de çalıştı. Artık Balaji, teknolojinin kendisinin kabul etmediği şeyler için kullanıldığını gördüğünü ve yapay zeka şirketlerinin “bu yapay zeka sistemlerini eğitmek için kullanılan dijital verileri oluşturan bireylerin, işletmelerin ve web hizmetlerinin ticari uygulanabilirliğini yok ettiğine” inandığını söylüyor. ” Occasions yazıyor.

Bu hafta Balaji şunu paylaştı: bir makale OpenAI’nin telif hakkı yasasını ihlal ettiğini iddia ettiği kişisel internet sitesinde. Makalede, bir yapay zeka sisteminin eğitim veri kümesindeki “telif hakkıyla korunan bilgilerin ne kadarının” sonuçta “bir modelin çıktılarına ulaştığını” göstermeye çalıştı. Balaji’nin analizinden çıkardığı sonuç, ChatGPT’nin çıktısının “adil” standardını karşılamadığıydı. Kullanım”, telif hakkıyla korunan materyalin, telif hakkı sahibinin izni olmadan sınırlı kullanımına izin veren yasal standarttır.

Balaji daha sonra Occasions’a yapay zekanın iş modelinin yarattığı hukuki sorunlara atıfta bulunarak “Bütün bunlardan kurtulmanın tek yolu düzenlemedir” dedi.

Gizmodo yorum yapmak için OpenAI’ye ulaştı. Teknoloji şirketi, Occasions’a yaptığı açıklamada Balaji’nin eleştirisine şu cevabı verdi: “Yapay zeka modellerimizi, halka açık verileri kullanarak, adil kullanım ve ilgili ilkelerle korunan ve uzun süredir devam eden ve geniş çapta kabul görmüş yasal emsallerle desteklenen bir şekilde oluşturuyoruz.” . Bu prensibi yaratıcılar için adil, yenilikçiler için gerekli ve ABD’nin rekabet gücü açısından kritik olarak görüyoruz.”

New York Occasions’ın şu anda telif hakkıyla korunan materyalin lisanssız kullanımı nedeniyle OpenAI’ye dava açtığını belirtmekte fayda var. Occasions, şirketin ve ortağı Microsoft’un, o zamandan beri aynı pazar için rekabet etmeye çalışan algoritmasını eğitmek için gazetedeki milyonlarca haber makalesini kullandığını iddia etti.

Gazete yalnız değil. OpenAI şu anda çok çeşitli ünlüler, sanatçılar, yazarlar ve kodlayıcılar tarafından dava ediliyor ve bunların hepsi de çalışmalarının şirketin veri süpürme algoritmaları tarafından çalındığını iddia ediyor. OpenAI’ye dava açan diğer tanınmış kişiler/kuruluşlar arasında şunlar bulunmaktadır: Sarah Silverman, Ta-Nahisi Ceketleri, George RR Martin, Jonathan Franzen, John Grisham, Araştırmacı Habercilik Merkezi, KesişmeA çeşitli gazeteler (Denver Publish ve Chicago Tribune dahil) ve çeşitli YouTuber’lardiğerleri arasında.

Kamuoyunun kafa karışıklığı ve ilgisizliğine rağmen yapay zeka endüstrisinin iş modelini eleştirenlerin listesi büyümeye devam ediyor. Ünlüler, teknoloji etik uzmanları ve hukuk uzmanlarının tümü, dünyaya yeni ve sorunlu hukuki ve sosyal ikilemler getirirken, güç ve etki açısından büyümeye devam eden bir sektöre şüpheyle yaklaşıyor.

Leave a Reply

Your email address will not be published. Required fields are marked *

etretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretreretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretr