Bu makaleyi dinlemek için oynat’a basın
Yapay zeka tarafından seslendirildi.
Jan Nicola Beyer, Democracy Reporting International’da Dijital Demokrasi biriminin araştırma koordinatörüdür.
Üretken yapay zekanın (AI) risklerine ilişkin tartışma şu anda tüm hızıyla devam ediyor.
Bir yandan, üretken yapay zeka araçları modelinin savunucuları, Sanayi Devrimi’nden bu yana tanık olunmayan üretkenlik kazanımlarını artırma potansiyellerini övüyorlar. Öte yandan, bu araçların oluşturduğu potansiyel tehlikelerle ilgili endişeleri artıran, büyüyen bir koro var.
Bol miktarda varken düzenlenmesi için çağrılar, hatta oyalanmakyeni AI teknolojisi geliştirme, ancak, tartışmada eksik görünen başka bir boyut daha var – algılama.
Mevzuatla karşılaştırıldığında, insan ve makine tarafından üretilen içerik arasında ayrım yapan teknolojilere yatırım yapmak — örneğin, AlgılamaGPT Ve GPTZero metin için ve AI Görüntü Dedektörü görseller için — bazıları tarafından standartların altında bir çözüm olarak görülebilir. Bununla birlikte, düzenleme aşılmaz zorluklarla karşı karşıya kalacağından, tespit yapay zekanın potansiyel risklerini azaltmak için umut verici bir yol sunabilir.
Üretken yapay zekanın potansiyeline sahip olduğu inkar edilemez. yaratıcılığı geliştirin ve üretkenliği artırın. Yine de, doğal ve sentetik içerik arasında ayrım yapma yeteneğini kaybetmek hain aktörleri de güçlendirebilir. Basit biçimlerden okullarda ve üniversitelerde intihal ihlaline elektronik güvenlik sistemis ve lansmanı profesyonel dezenformasyon kampanyalarımetin yazan, resim çizen veya video çeken makinelerin arkasındaki tehlikeler çok çeşitlidir.
Tüm bu tehditler bir yanıt gerektirir – yalnızca yasal değil, aynı zamanda teknik bir yanıt. Ancak bu tür teknik çözümler, alması gereken desteği alamıyor.
Şu anda, yeni üretken araçlara tahsis edilen fonlar, algılamaya yapılan yatırımdan çok daha ağır basmaktadır. Microsoft tek başına devasa bir yatırım yaptı OpenAI’de 10 milyar dolar, ChatGPT’nin arkasındaki şirket. Bunu bir perspektife oturtmak için, yapay zekaya yönelik toplam Avrupa harcamasının yaklaşık olarak tahmin edilmektedir. 21 milyar dolarve tespitin kamuoyunda güçlü bir şekilde öne çıkmadığı göz önüne alındığında, bu meblağın yalnızca küçük bir kısmının bu amaca yönelik olduğu varsayılabilir.
Ancak bu dengesizliği azaltmak için, endüstrinin hız kazanmasına güvenemeyiz.
Üretken çıktının saptanmasından elde edilen kârlar, yeni yaratıcı araçlar geliştirmek için elde edilen kârlar kadar kazançlı olmayacağından, özel işletmelerin tespit için tahsis edilen fonları üretken yapay zekaya yaptıkları harcamalarla eşleştirmesi pek olası değildir. Tespit araçları için kazançlı yatırım fırsatlarının olduğu durumlarda bile, özel ürünler nadiren halkın eline geçer.
Sentetik ses teknolojisi buna iyi bir örnektir. Sözde ses klonları bir halk için ciddi tehdit — özellikle politikacıları veya tanınmış kişileri taklit etmek için kullanıldığında — özel şirketler, bankalarda güvenlik sistemleri dolandırıcılığı önlemek için. Ve bu tür teknolojilerin geliştiricileri, güvenlik sistemlerini atlama girişimlerini teşvik edeceğinden, kaynak kodlarını paylaşmakla pek ilgilenmezler.
Bu arada, milletvekilleri şimdiye kadar tespit için araştırma fonu yerine AI içeriğinin düzenlenmesini vurguladılar. Örneğin Avrupa Birliği, AI Yasası aracılığıyla düzenleme çabasını üstlendi, sorumlu ve etik gelişimi sağlamayı amaçlayan bir düzenleyici çerçeve ve AI kullanımı. Bununla birlikte, yüksek riskli teknolojiyi sınırlamak ile yeniliğe izin vermek arasında doğru dengeyi bulmak zorlayıcıdır.
Ek olarak, etkili bir düzenlemeye ulaşılıp ulaşılamayacağı da görülecektir.
ChatGPT, yasal olarak sorumlu tutulabilecek bir kuruluş olan OpenAI tarafından geliştirildiği için yasal gözetime tabi olabilirken, ChatGPT gibi araçların temelini oluşturan algoritmalar olan büyük dil modelleri (LLM’ler) oluşturan daha küçük projeler için aynı şey söylenemez. . Örneğin, Meta’nın LLaMA modelini kullanan Stanford Üniversitesi araştırmacıları, benzer performansa sahip kendi LLM’lerini oluşturabildiler. Yalnızca 600$’lık maliyet karşılığında ChatGPT. Bu vaka, diğer LLM’lerin halihazırda var olan modeller üzerine oldukça kolay ve ucuz bir şekilde inşa edilebileceğini ve kendi kendini düzenlemeden kaçınabileceğini göstermektedir – suçlular veya dezenformasyon aktörleri için çekici bir seçenek. Ve bu gibi durumlarda, yasal hesap verebilirlik oldukça imkansız olabilir.
Bu nedenle, sağlam algılama mekanizmaları, üretken AI araçlarına karşı sürekli gelişen silahlanma yarışında avantaj elde etmek için uygun bir çözüm sunar.
Halihazırda dezenformasyonla mücadelede ön saflarda yer alan ve yapay zekaya büyük yatırımlar taahhüt eden AB’nin araştırma fonu sağlamada öncülük etmesi gereken yer burasıdır. Ve iyi haber şu ki, üretken yapay zeka araçlarının geliştirilmesine ayrılan fon miktarı ile bunların tespit edilmesini kolaylaştıran araçlar geliştirmek için harcanan parayı eşleştirmeye bile gerek yok. Genel bir kural olarak, algılama araçları, büyük miktarda kazınmış veri gerektirmez ve son LLM’lerle ilişkili yüksek eğitim maliyetlerine sahip değilsiniz.
Bununla birlikte, üretken AI’nın altında yatan modeller ilerledikçe, algılama teknolojisinin de ayak uydurması gerekecektir. Ek olarak, tespit mekanizmaları da alan uzmanlarının işbirliğini gerektirebilir. Örneğin, sentetik ses söz konusu olduğunda, dilbilimcilerle işbirliği yapmak için makine öğrenimi mühendisleri ve diğer araştırmacılar, bu tür araçların etkili olabilmesi için ve sağlanan araştırma fonu bu tür işbirliklerini kolaylaştırmalıdır.
COVID-19, dünya devletlerinin gerektiğinde krizlerin üstesinden gelmeye yardımcı olabilecek inovasyonları destekleyebileceğini gösterdi. Ve hükümetlerin, halkın potansiyel olarak zararlı yapay zeka içeriğinden korunmasını sağlamada oynayacağı bir rol vardır — üretken yapay zeka çıktısının tespitine yatırım yapmak, bunu yapmanın bir yoludur.
Kaynak : https://www.politico.eu/article/artificial-intelligence-ai-detection-race-can-be-won/?utm_source=RSS_Feed&utm_medium=RSS&utm_campaign=RSS_Syndication