Dan Simmons'ın 1989 tarihli bilimkurgu klasiği Hyperion'da, romanın kahramanları bilgileri anında doğrudan beyinlerine nakleden "Datasphere" olarak bilinen bir yapay zeka ağına kalıcı olarak bağlıdır. Bilgi hemen elde edilebilirken, kendi kendine düşünme yeteneği kaybolur. Simons'un romanının yayımlanmasından 30 yıldan fazla bir süre sonra, yapay zekanın entelektüel yeteneklerimiz üzerindeki artan etkisi de benzer terimlerle düşünülebilir. Bu riskleri azaltmak için, hem yapay zekanın ilerlemesini hem de bilişsel kapasitelerimize saygı duyma ve bunları koruma ihtiyacını uzlaştırabilecek bir çözüm sunuluyor. AI'nın insan refahı için faydaları geniş kapsamlıdır ve iyi duyurulmuştur. Bunlar arasında teknolojinin sosyal adaleti ilerletme, sistemik ırkçılıkla mücadele etme, kanser tespitini iyileştirme, çevresel krizi hafifletme ve üretkenliği artırma potansiyeli var . Bununla birlikte, AI'nın ırksal önyargı , sosyo-ekonomik eşitsizlikleri derinleştirme ve duygularımızı ve davranışlarımızı manipüle etme kapasitesi dahil olmak üzere daha karanlık yönleri de odak noktasına geliyor . İLK KURAL KİTABI Artan risklere rağmen, AI'yı düzenleyen bağlayıcı ulusal veya uluslararası kurallar hala yoktur . Bu nedenle Avrupa Komisyonu'nun yapay zekaya ilişkin bir düzenleme önerisi çok önemlidir. Geçen hafta Avrupa Parlamentosu'nun iki komitesi tarafından son taslağına yeşil ışık yakılan Yapay Zeka Yasası, teknolojinin kullanımının doğasında var olan potansiyel riskleri inceliyor ve bunları üç kategoriye göre sınıflandırıyor: "kabul edilemez", "yüksek" ve "diğer".  İlk kategoride, yasaklanacak AI uygulamaları şunlardır: Bir kişinin davranışını, o kişiye veya başka bir kişiye fiziksel veya psikolojik zarar verecek veya verebilecek şekilde manipüle etmek. Yapay zekanın bu kişilerin davranışlarını bozması ve muhtemelen zarar vermesi için belirli bir grup insanın (ör. yaş, engellilik) güvenlik açıklarından yararlanmak.  İnsanları değerlendirmek ve sınıflandırmak (örneğin, sosyal puanlama). Belirli durumlar (örn. terör saldırıları) dışında, yaptırım amacıyla kamusal alanlarda gerçek zamanlı yüz tanıma kullanmak. KABUL EDİLEMEZ RİSKLER AI Yasasında, “kabul edilemez” riskler ve zararlar kavramları yakından ilişkilidir. Bunlar önemli adımlardır ve belirli etkinlikleri ve fiziksel alanları yapay zekanın müdahalesinden koruma ihtiyacını ortaya çıkarır. Yargı alanlarında otomatik karar vermeyi ve bunun geçiş yönetimi için kullanımını içeren yapay zekadaki son gelişmeler söz konusu olduğunda özellikle doğrudur. ChatGPT ve OpenAI etrafındaki tartışmalar da entelektüel kapasitelerimiz üzerindeki etkilerine ilişkin endişeleri artırıyor . AI İÇERMEYEN SIĞINAKLAR Bu vakalar, yapay zekanın insan hakları, mahremiyet ve bilişsel yeteneklerin tehlikede olduğu sektörlerde konuşlandırılmasıyla ilgili endişeleri gösteriyor. Ayrıca, AI faaliyetlerinin güçlü bir şekilde düzenlenmesi gereken alanlara duyulan ihtiyaca da işaret ediyorlar. Bu alanların eski kutsal alan kavramıyla tanımlanabileceği savunuluyor. Uzmanlar "Gözetim kapitalizmi" ciddi ciddi çalışmalara başladı. Shoshana Zuboff, bizi bir zamanlar ezilen toplulukların sığındığı kutsal alanlar, kiliseler ve manastırlarda bir tura çıkararak - ki buna camileri de eklemek lazım- kutsal alan hakkından ileri görüşlü bir şekilde gücün panzehiri olarak söz ediyor. Dijital gözetimin yaygınlığına karşı Zuboff, "dokunulmaz bir sığınak alanı"ndan yararlanabilmemiz için sağlam bir dijital düzenleme oluşturarak sığınma hakkı konusunda ısrar ediyor. [caption id="attachment_519694" align="alignnone" width="607"]Yukarıda AI tarafından oluşturulmuş bir görsel görüyorsunuz. Yukarıda AI tarafından oluşturulmuş bir görsel görüyorsunuz.[/caption] "Yapay zekadan arındırılmış sığınaklar" fikri, yapay zeka sistemlerinin yasaklanmasını değil, bu teknolojilerin uygulamalarında daha güçlü bir düzenlemeyi ima eder. AB'nin AI Yasası söz konusu olduğunda, zarar fikrinin daha kesin bir tanımını ima eder. Ancak ne AB'nin teklif ettiği mevzuatta ne de üye devletler düzeyinde zararın net bir tanımı yoktur. Suzanne Vergnolle'nin öne sürdüğü gibi, olası bir çözüm, manipülatif AI uygulamalarından kaynaklanan zarar türlerini daha iyi tanımlayacak olan Avrupa üye devletleri arasında ortak kriterler bulmak olacaktır. Irk ve sosyo-ekonomik geçmişe dayalı toplu zararlar da dikkate alınmalıdır. Yapay zeka içermeyen sığınakları uygulamak için, bilişsel ve zihinsel zararımızı korumamıza izin veren düzenlemeler uygulanmalıdır. Bir başlangıç ​​noktası, nöroteknolojilerdeki hızlı ilerlemenin ortasında bilişsel özgürlüğümüzü koruyacak yeni nesil hakların - "sinir hakları" - uygulanmasından oluşacaktır. Roberto Andorno ve Marcello Ienca , halihazırda Avrupa İnsan Hakları Mahkemesi tarafından korunan zihinsel bütünlük hakkının, akıl hastalığı vakalarının ötesine geçmesi ve AI sistemleri de dahil olmak üzere yetkisiz izinsiz girişleri ele alması gerektiğine inanıyor . FİZİKSEL DÜNYADAKİ SIĞINAKLAR Şimdiye kadar, "yapay zeka içermeyen alanlar", kesinlikle mekansal bir bakış açısından eşit olmayan bir şekilde uygulandı. Bazı ABD ve Avrupa okulları, "düşük teknolojili/teknolojisiz eğitim" hareketi olarak adlandırılan sınıflarda ekranlardan kaçınmayı seçti. Birçok dijital eğitim programı, bağımlılığı destekleyebilecek tasarımlara dayanırken, kamu ve düşük bütçeli okullar, sosyal bölünmeyi artıran ekranlara ve dijital araçlara giderek daha fazla güvenme eğilimindedir. Sınıflar gibi kontrollü ortamların dışında bile yapay zekanın erişimi genişliyor. 2019 ve 2021 yılları arasında bir düzine ABD şehri, yüz tanımanın kanun uygulama amacıyla kullanılmasını kısıtlayan ve yasaklayan yasalar çıkardı. Ancak 2022'den bu yana birçok şehir, artan suç algısına yanıt olarak geri adım atıyor. Avrupa Komisyonu'nun önerdiği mevzuata rağmen, Fransa'da yapay zeka güvenlik kameraları 2024'te Paris Olimpiyatlarını izleyecek. [caption id="attachment_519696" align="alignnone" width="867"] Sınıflar gibi kontrollü ortamların dışında bile yapay zekanın erişimi genişliyor.[/caption] Eşitsizlikleri pekiştirme potansiyeline rağmen, yüz analizi yapay zekası bazı iş görüşmelerinde kullanılıyor . Geçmişte başarılı olan adayların verileriyle beslenen yapay zeka, ayrıcalıklı geçmişlere sahip adayları seçme ve farklı geçmişlerden gelenleri dışlama eğiliminde olacaktır. Bu tür uygulamalar yasaklanmalıdır. Teknoloji bu seviyede kullanılmaya hazır olmadığı için yapay zeka destekli İnternet arama motorları da yasaklanmalıdır. Gerçekten de, Melissa Heikkiläa'nın 2023 MIT Technology Review makalesinde işaret ettiği gibi , "Yapay zeka tarafından oluşturulan metin yetkili görünüyor ve kaynaklardan alıntı yapıyor, bu da ironik bir şekilde kullanıcıların gördükleri bilgileri tekrar kontrol etme olasılığını daha da azaltabilir." Ayrıca, "kullanıcılar artık bu teknolojiyi ücretsiz olarak test etme işini yapıyor" gibi bir istismar ölçüsü de var. Yapay zekadan arınmış sığınak hakkı, tüm bireylerin bilişsel ve duygusal kapasitelerini aynı anda korurken yapay zekanın teknik ilerlemesine izin verecektir. Kendi yöntemlerimizde bilgi ve deneyim edinme becerilerimizi korumak ve ahlaki muhakememizi korumak istiyorsak, yapay zekanın kullanılmasını devre dışı bırakabilmek çok önemlidir.