Moskova

Moskova

4 Şubat 2025 Salı

Yapay zekanın etiğe ihtiyacı var mı?



Konstantin Frumkin

"Yeni Dünya" Sayı 12, 2024

Kaynak: https://nm1925.ru/

 

Yapay zekânın (YZ) kullanımından kaynaklanan etik sorunlar konusu, günümüzde Batı sosyal bilimlerinde son derece moda hale gelmiştir. Bu konu hakkında çok geniş bir literatür bulunmaktadır.

Neden?

Elbette cevabın ilk kısmı, bilgi teknolojisinin (Yapay Zeka teknolojisi de dahil) yüksek bir gelişme düzeyine ulaştığı ve insan faaliyetinin çok çeşitli yönleri üzerinde her zamankinden daha fazla etki kazandığıdır. Peki, bu bağlamda, yeni teknolojilerin politik veya toplumsal sorunları yerine etik sorunları hakkında neden bu kadar çok konuşuluyor?

 

Uygulamalı Etikte Yeni Konu 

 

İlk bakışta yapay zekânın bir tür yarı varlık, sıradan bir insan kişiliği gibi ahlaki seçimler yapmak zorunda olan yapay bir zihin olarak sunulması asıl meseledir . Ancak yapay zeka etiği makalelerinde tartışılan gerçek vakalarda böyle bir yanılsama mevcut değil. Ve bunun başlıca nedeni, son onyıllarda Batı'da etik denen şeyin sınırlarının oldukça keskin bir şekilde genişlemesidir. 

Sosyal bilimlerde “ekonomik emperyalizm” kavramı vardır; yani ekonomik (ve her şeyden önce ekonomik-matematiksel) bilimsel yöntemlerin demografi veya siyaset bilimi gibi ilgili alanlara yayılması. Benzer şekilde, etiğin kendisi için tamamen yeni olan konulara ve meselelere doğru genişlemesi anlamına gelen “etik emperyalizm”den de söz edilebilir. 20. yüzyılın ikinci yarısından itibaren Batı'daki etik ve Batı'yı takip eden dünyanın diğer bölgelerindeki etik, ekolojiden siyasete, tıptan adalete kadar çok çeşitli sorunları çözmek için uyarlanmaya çalışılmıştır. Bu da çok sayıda etik komitenin kurulmasına ve etik kodların yazılmasına yol açtı.

“Etik emperyalizm”, diğer şeylerin yanı sıra, akademik etiğin “genişlemesinde” kendini göstermektedir. Bilindiği üzere dar anlamda etik, felsefenin ahlakla ilgilenen dalıdır; üniversitelerde etik bölümleri vardır ve böylece 20. yüzyılın son çeyreğinden itibaren Batı'da, özellikle de ABD'de etik profesörleri günlük yaşamın çok çeşitli konularıyla ilgilenmeye başlamış, tıp alanından nükleer enerjiye kadar çok çeşitli alanlarda etik düzenleme ilkeleri geliştirme çabasına girmişlerdir. Bilimsel etiğin kapsamının bu sınırsız genişlemesine “uygulamalı etik” adı verilmiştir.

Başlangıçta, uygulamalı etiğin uygulanmasında öncelikli alan tıptı ve bu bir tesadüf değildi: ahlaki ilkelerin her zaman ortak yeri, bireyin yaşamının ve onurunun "yakınlarının" saldırgan tecavüzlerinden korunmasıdır. - Ahlak, her şeyden önce insanların birbirlerinin yaşam ve çıkarlarına tecavüz etmemeleri yönündeki karşılıklı bir yükümlülüktür. Bu arada, tam da tıp alanında, sürekli ama aynı zamanda toplumsal olarak kontrol edilen bir yaşam tehlikesi ortaya çıkar ve buna bağlı olarak ahlaki denebilecek sorular ortaya çıkar - insanların birbirlerinin yaşamlarını koruma yükümlülüklerini etkilemeleri anlamında. Batı'da uygulamalı etik alanında önde gelen Rus uzmanlardan L. V. Konovalova'nın 1990'larda yazdığı gibi, uygulamalı etik "yaşam tehlikesi ve ölüm korkusu" olduğunda ortaya çıkar [1] .

Uygulanan etik, kürtaj, ötanazi, hastaların yapay solunumdan uzak tutulması, tıbbi bakımın sağlanmasındaki mali kısıtlamalar, canlılar üzerinde yapılan tıbbi ve biyolojik deneyler, doktorların hastalardan bilgi gizlemesi, ölüm cezası gibi konularda her zaman kendini evinde hissetmiştir. — insan hayatının tehlikede olduğu ve onu kurtarmak için ne gibi çabaların sarf edilmesi gerektiği sorusunun ortaya çıktığı her yerde. İnsan yaşamı belirsiz ve sonsuz bir değere sahip olduğundan, onunla ilgili meseleler çoğu zaman eşit değerlerin alışverişine dayanan salt ticari, rutin bir çözümden uzaklaşmakta ve tam da etik bir düzenlemeyi gerektirmektedir.

Ancak onlar aynı zamanda etiği medeniyetin diğer alanlarına uygulamaya çalışıyorlar; bunun mükemmel bir örneği de Amerikalı filozof Ian Barbour'un Teknoloji Çağında Etik [2] adlı kitabıdır. Gıda üretiminden enerjiye kadar ulusal ekonominin en çeşitli “sektörlerinde” ortaya çıkan ahlaki çatışmalardan bahsediyor ve buna bağlı olarak insanları açlıktan kurtarmanın gerekliliğinden, enerjinin çevre dostu olması gerektiğinden ve sürdürülebilir kalkınmaya odaklanmış, kısacası ekonominin ve kamusal yaşamın tüm kesimlerinde “her şey için iyi, her şey için kötü mücadele” üzerine odaklanmıştır.

Şimdi etikçiler, etik düzenlemenin ana konusu olarak tıbbın yerini alan yapay zeka konusuna hevesle atılıyorlar.

Peki, bu konuda ortaya çıkan sorular gerçekten geleneksel anlamda etik mi, diğer yandan da gerçekten yapay zekaya özgü mü? Son yıllarda Rusçaya çevrilen Amerikan yazarların kitaplarındaki etik sorunlara dair örneklerden yola çıkarak bu konuyu analiz etmeye çalışalım. Analizimiz için malzeme olarak bu türden üç kitap ele alacağız: Frank Pasquale'nin "Robotik Yasaları" , Cathy O'Neil'in "Katil Büyük Veri" ve kolektif monografi "Yapay Zekanın Etiği" [3] . .

 

Bilgisayarlar insanlardan öğrenir

 

Bu kitaplarda sunulan vakaların birçoğu için, hatta çoğu için, yapay zekanın kullanımının mevcut duruma kelimenin tam anlamıyla hiçbir yenilik getirmediği söylenebilir.

İşte makine etiği uzmanlarını endişelendiren bir durum: Polis büyük veri odaklı öngörücü analizlere güvenirse, şehrin daha fazla suç geçmişi olan ve dolayısıyla daha düşük gelirli insanların bulunduğu daha fakir bölgelerine odaklanmaları muhtemeldir. Daha yakın polis gözetimi altında olduklarından hapse girme olasılıkları daha yüksektir. Kötü mahallelerin daha fazla denetlenmesinin adil olup olmadığı sorusunu bir kenara bırakırsak, bu durumda yapay zekanın, kötü mahallelerin sınırlarını daha doğru bir şekilde belirlemek dışında özel rolü nedir? Polis arabalarının suçun daha çok işlendiği yerlere gönderilmesine halk ve sadece halk karar verdi. Yapay zeka -doğru veya yanlış- bilimsel olarak kanıtlanmış yöntemlere dayanarak onlara bu yerleri gösterdi. Diğer tüm açılardan yapay zekanın kesinlikle bir suçu olmayacaktır. Polis analistleri, büyük veri teknolojisini kullanmadan suçların nerede işlenebileceğini iyi veya kötü şekilde tahmin edebilirler.

Önemli olan nokta, yapay zekanın hala insan kararlarına hizmet ediyor olması ve bu kararların bir uzantısı olmasıdır. İlginç bir vaka daha: Yapay zeka, büyük bir şirketteki iş adaylarından alınan verileri, önceki yıllarda insan yöneticilerin gerçekleştirdiği aday seçme deneyimlerine dayanarak analiz etti. Bu sistem, yöneticilerin geçmişte iyi çalışanları seçmede iyi olduklarını ve makinenin sadece onlardan öğrenmesi gerektiğini varsaydı. Sonuç tahmin edilebilirdi: Yapay zekâ, insan pratiğinin özelliklerini, eksiklikleri de dahil olmak üzere, yeniden üretmeye başladı. Özellikle yapay zeka kararlarının kadın adaylara karşı ayrımcılık yaptığı ortaya çıktı; Suçlu yapay zeka değildi: Kadınlar, bilgisayarın sadece taklit ettiği yöneticiler tarafından ayrımcılığa uğruyordu.

Bu bağlamda akla gelen soru şudur: Acaba özel bir “Yapay Zeka etiği” sorunuyla mı karşı karşıyayız?

İşgücü piyasasında kadınlara yönelik ayrımcılık sorununun yapay zekadan, en ilkel bilgisayarlardan bile daha eski olduğu aşikardır.

Ayrıca bu özel durumda ortaya çıkan sorunun bilgisayar programlarından değil, insan pratiklerinden kaynaklandığı açıktır.

Öte yandan, kuşkusuz eski sorunların yeni bir varoluş bağlamı ve yeni bir tezahür biçimiyle karşı karşıyayız. Yenilik, insan (makine değil) uygulamalarında kadınlara karşı ayrımcılığın makine öğrenmesi için kullanılan verilerde şifrelenerek saklanmasıdır. Bu anlamda yapay zekâ etiği konusu, bilinen toplumsal ve ahlaki sorunların tartışılması için yeni ve önemli bir neden olarak karşımıza çıkmaktadır. Üstelik bu eski sorunlar, sorunların kaynağı olan bilgi ve belgelerin özel bir kod halinde sunulması ve düzeltilmesinin profesyonel beceri gerektirmesi durumunda tartışılmaktadır. Kadınlara yönelik ayrımcılık mevzuata dayandığında, hukuki danışmanlık gerektiğinde ve sorunların kaynağı yasalar değil, makine öğrenimi için veriler olduğunda, ahlaki tartışmalara bilgi teknolojisi uzmanlarını dahil etmeden yapmak imkansızdır, ancak büyük ölçüde son söz yine de onlara aittir. Beşeri bilimler uzmanlarıyla. Ancak toplum kadınlara veya engellilere bazı avantajlar ve ayrıcalıklar sağlamak istiyorsa, günümüzde buna uygun değişikliklerin yalnızca yasalarda değil, aynı zamanda karar alma AI sistemlerinin ayarlarında da (örneğin, özgeçmişleri analiz edenler) yapılması gerekir. ).

İki örnek daha verelim.

Avustralyalı bir şirkette çalışan bir kişi, bilgisayar sisteminden gelen fesih emri nedeniyle işten çıkarıldı, hatta çalışanın en yakın amiri bile işten çıkarılma nedenini anlayamadı. Sadece üç hafta sonra bunun sebebinin şirketten ayrılan başka bir çalışanın dikkatsizliği olduğu ortaya çıktı; o sadece doğru düğmeye basmayı unutmuştu.

İkinci örnek: ABD'de siyah bir mahkûmun erken tahliye talebi bilgisayar sistemi tarafından reddedildi; Bunun sebebi, ırkçı önyargılara sahip güvenlik görevlilerinin olumsuz yorumlarının sisteme yüklenmesiydi.

Her iki örnekte de (yazarlar bunları yapay zeka ile ilişkili etik sorunlara örnek olarak sunmuş olsalar da) asıl sorunlar bilgisayarlardan değil, insanların eylemlerinden kaynaklanmaktadır. Bilgisayar sistemleri günümüzde önemli olmasa bile her iki sorun da ortaya çıkabilir. Örneğin, bir iş sözleşmesinin uzatılmasına ilişkin belgelerin düzenlenmesinde dikkatsizlik, çalışanın işten çıkarılmasına yol açabilir. Irkçı gardiyanlardan gelen olumsuz geri bildirimler elbette erken tahliye için her zaman caydırıcı olacaktır. Ancak durumun özgüllüğü, bilgisayar sisteminin karmaşıklığının, yanlış eylemlerinin nedenlerini bulmayı çok zorlaştırması gerçeğinde de yatmaktadır. Sonuç olarak Avustralyalı çalışanın işten çıkarılma nedenlerini öğrenmesi haftalar alırken, Amerikalı mahkûmun işten çıkarılmayı reddetme nedenlerini öğrenmesi yıllar aldı. Ve bu kesinlikle bir sorun, ancak kendi içinde etik olmaktan çok teknik bir sorun. Aynı zamanda, insanları bu tür teknik zorlukların risklerine maruz bırakan bilgisayar sistemlerini uygulamaya koyma hakkımız olup olmadığı da etik bir sorudur. Ancak bu sorunun ahlaki açıdan çok da zor olmadığı anlaşılıyor, zira çözümleri teknik alanda yatıyor; yapay zekanın daha bilgilendirici ve anlaşılır bir arayüze ihtiyacı var.

 

Opaklık sorunu

 

Ancak yukarıdaki durumların çok daha karmaşık bir konuyu gündeme getirdiğini kabul etmek gerekir. Gerçek şu ki, "büyük veriler" üzerinde eğitilen sinir ağlarının belirli kararları nasıl aldığına dair kesin mekanizma belirsizdir. Bu soru, edebi distopyaların da konusu olmuştur; bunlardan biri de Polonyalı bilimkurgu yazarı Rafal Kosik'in "Tespih" adlı romanıdır. Kosik'in kurduğu dünyada şehir, ortadan kaldırma servisinin bağlı olduğu süper güçlü bir bilgisayar zekasının kontrolü altındadır. Bu sadece polis değil. Polis, daha önce işlenmiş suçları soruşturup cezalandırırken, Eliminasyon henüz hiçbir şey yapmamış ancak yapay zeka hesaplamalarına göre gelecekte bir şey yapma ihtimali çok yüksek olan kişileri ortadan kaldırıyor.

İnsan-yapay zeka ilişkisindeki temel sorun, bu ilişkinin anlaşılamaması ve neyin rehberliğinde olduğunun bilinmemesidir. Bilinen tek şey her yıl binlerce insanın Eliminasyona gönderildiği, ancak bunun ne anlama geldiğinin bile bilinmediği: acısız bir öldürmeden söz edildiği varsayılıyor. Yapay zeka diktatörlüğüne karşı savaşmaya çalışan yeraltı direnişi, yapay zekanın yeraltına karşı da savaştığına inanıyor, ancak bu, direniş üyelerinin şüpheli bir şekilde sık sık yer altında olmaları gerçeğine dayanarak yalnızca bir olasılıkla yapılabilecek bir varsayımdır. Elemelere girmek. Rafal Kosik'in romanında yapay zekânın egemenliğine karşı ilk direniş eylemi, en azından onun kararlarını nasıl aldığını anlamamızı sağlayacak, insan dostu bir arayüz yaratma girişimiydi. Ancak yapay zeka, perde arkasına bakmak isteyenleri acımasızca cezalandırıyordu; görünüşe göre gücüne yönelik bir saldırının aynı zamanda koruduğu insanların güvenliğine ve refahına yönelik bir saldırı olduğuna inanıyordu.

Sinir ağlarından oldukça resmi alanlardaki problemleri çözmeleri istendiğinde (satranç oynamak, borsada işlem yapmak, denklem hesaplamak) çözümlerinin etkililiğini kontrol etmek oldukça kolaydır. Ancak, yapay zekalı İK uzmanının etkinliği, yapay zekalı İK uzmanının özgeçmişlerini analiz ederek bir pozisyon için aday seçmesi istendiğinde, yalnızca sezgisel olarak ve yapay zekalı İK teknolojisine olan güven varsayımına dayanarak değerlendirilebilir .

Burada, yapay zekanın boş pozisyonlar için aday seçmesine izin vermenin etik gerekçesinin tartışılmasında bir yol ayrımı ortaya çıkıyor. İlk soru - "Bilgisayar-İK uzmanı mı yoksa bilgisayar yöneticisi mi etkilidir?" - elbette önemlidir, ancak bu bir etik değil, bir yönetim sorunudur. Ahlaki açıdan ikinci soru önemlidir: İnsanları, temelde belirsiz ve bilinmeyen amaçlara sahip bir makinenin gücüne teslim etmek adil midir?

Bu iki soru birbirinden tamamen farklı gibi görünse de aslında birbirleriyle yakından ilişkilidir. Çünkü yapay zeka yönetim sistemlerine dahil edilmeden önce, çalışanlar genellikle, çalışanlarının refahından çok, yönettikleri kuruluşların hedeflerine ulaşmayı önemseyen üst düzey yöneticilerin insafına kalmıştı; özel işletmelerde ise durum böyleydi. karı maksimize etmek. Kapitalist bir işletmenin çalışanı, doğası gereği sömürüye (bu terim nasıl yorumlanırsa yorumlansın) maruz kalır ve şirket yönetiminin koyduğu kurallara göre hareket eder. Birtakım taktiksel kararlar (personel seçimi veya banka kredisi için başvuranların değerlendirilmesi) veren bir aygıt olarak sinir ağının ortaya çıkması, iyi veya kötü, insanlar tarafından icat edilip organize edilen bu sistemin devamından başka bir şey değildir.

 

Kapitalizm suçludur

 

Yapay sinir ağının kurumsal yönetim alanındaki kararları çalışanlar açısından şeffaf değildir, ancak üst düzey yöneticilerin kararlarının gerekçeleri konusunda astlarına rapor vermeleri gerekmez. Ve bu durumda sinir ağı, belirli konularda kendisine güvendiklerine karar veren üst düzey yöneticilerin gücünün bir uzantısıdır.

Bütün bunlar burada sorunlarımızın olmadığı anlamına gelmiyor. Etik olanlar da dahil - ama asıl mesele şu ki, bu sorunlar tamamen yapay zeka alanına özgü değil. Harvard Üniversitesi profesörü Frank Pasquale'nin "Robotik Yasaları" adlı kitabının temel eksikliği tam da budur. Kitap, insanları şeffaf olmayan yapay zeka kararlarına tabi tutmanın, onları insan muamelesi görme hakkından mahrum bıraktığı ve insan onuruyla bağdaşmadığı yönünde çok sayıda tartışma içeriyor. Pasquale , aslında yapay zekanın eksikliklerini, bu yapay zekanın çalışmasının altında yatan yöntemin eksiklikleriyle ve bu yapay zekanın kullanıldığı amaçların eksiklikleriyle karıştırıyor.

Örneğin: Yapay zeka, iş başvurusunda bulunanları veya potansiyel borçluları, yürüyüş gibi görünüşte alakasız şeylerle olan korelasyonlara göre değerlendiriyor ve bu da adil değil. Ancak öncelikle, korelasyon ve olasılıklara dayalı değerlendirme yapay zekaya özgü değildir; en azından anket icat edildiğinden beri mevcuttur. Bu yöntem yapay zekaya ihtiyaç duymadan da kullanılabilir. İkinci olarak, bu seçimi yapan kuruluşların hedefleri ve yetkileri konusunda soru işaretleri ortaya çıkmaktadır. Biz onlardan ne istiyoruz? En verimli çalışanları ve en kredibilitesi yüksek borçluları seçmeli mi, seçmemeli mi? BT uzmanlarına güvenen banka ve şirket yöneticileri, potansiyel borçlular veya potansiyel çalışanlar hakkında mümkün olduğunca fazla bilgiyi dikkate almanın daha etkili olduğuna, ardından seçimlerinin daha etkili olacağına inanıyorlar. Bu tercihin daha az etkili olmasını ister miyiz? Bunun doğrudan konuşulması gerekiyor.

Bunu söylediğinizde, yapay zekaya yönelik bu eleştirilerin "bilinçaltında", eğer faydalar herkese dağıtılamıyorsa, o zaman rastgele dağıtılması gerektiğini düşünme noktasına varan bir solcu eşitlik hayali yattığı izlenimini edinirsiniz. körü körüne.

İncelenen sorunların mantığı, Pasquale'i yapay zeka eleştirisinden, kapitalist bir şirketteki yönetim ile işçiler arasındaki ilişkinin eleştirisine götürüyor; Bu sorun çerçevesinde yapay zeka, yönetim gücünün yalnızca bir yükselticisidir ve örneğin Pasquale, şirket yönetiminde sendikaların rolünün artırılmasını önermektedir (burada ABD için Almanya bir örnektir). Dolayısıyla yapay zekâ etiğine ilişkin kaygı kisvesi altında, kapitalizmin ve kapitalist işletmelerin küresel etik sorunlarına ilişkin bir kaygının yattığı açıkça ortaya çıkıyor. Bu mantık, Frank Pasquale'i iş ve üretimde otomasyon ve robotik sistemlerinin kullanımını sınırlamaya yönelik bir " Ludist " mantığına götürür: Yapay zeka ve robotların insan işçilerin verimliliğini artırması gerektiğini, ancak onları değiştirin. Bu talep, yeni teknolojilerin tanıtılmasının tüm tarihine aykırı olduğu için hiç kuşkusuz kahramanca bir iddiadır. Şimdiye kadar teknoloji, insanları etkili ve ucuz bir şekilde değiştirebildiği yerde, onları değiştirmiştir. Yapay zeka etiği, yüzyıllardır süregelen teknolojik işsizlik sorunu tartışmalarında, “aydınlanmış Luddizm ”in (belirli teknolojik çözümlere duyulan korku) haklı çıkarıldığı yeni bir dönemin mi ortaya çıktığı sorusunu gündeme getiriyor.

Dolayısıyla bilgi teknolojisinin kullanımını eleştirenler, çoğunlukla kapitalist şirketlerin gerçekleştirdiği bazı faaliyetlerin daha verimli bir şekilde yürütülmesini istemezler. Mesela daha etkili reklamlardan hoşlanmıyorlar. Yapay Zekanın Etiği kitabında aktarılan rahatsız edici vakalardan biri de, insanların ortalama olarak reklamlarla ikna olma olasılıklarının en yüksek olduğu hafta içi gün ve saatleri belirlemek için büyük veri analitiğinin kullanılmasıdır. Şirketler bu "zayıf zamanları" belirleyerek reklam çabalarını bu zaman dilimlerine odaklayabilirler. Eleştirmenler, yapay zekanın bu şekilde zihin manipülasyonu için bir araç haline geldiğine inanıyorlar; ancak "manipülasyon" kavramının son derece belirsiz olduğunu da unutmamak gerekir; reklamcılık sektörünün cephaneliğinin genişlemesinde sadece küçük bir adımdan başka bir şeye bakmıyoruz.

Son 100-150 yıldır reklamcılar kitle psikolojisini inceliyor ve mümkün olduğunca etkili birer manipülatör olmaya çalışıyorlar. Dolayısıyla asıl soru yapay zeka ve büyük veri değil, insanların reklam bilgilerinden korunup korunmayacağı ve nasıl korunacağıdır. Yapay zekanın reklamcılıkta kullanılması eleştirilmeye başlanmadan önce, eleştiriler televizyon reklamlarının manipülatif etkilerine veya seyyar satıcıların gevezeliklerine yönelikti.

Bir kişiyi reklamdan korumaya karar verdiğimiz durumlarda, reklam " mesajı " ile karşılaştığı anda kişinin tam anlamıyla aklı başında olmadığını ve rasyonel kararlar alamayacağını varsaymamız önemlidir. 25. kare yasağında bu delilik karinesi açıkça uygulanmıştır, ancak bu ilkenin yaygınlaştırılması ayrı bir ahlaki ve siyasal sorundur. Vatandaşın çıkarının ne olduğunu vatandaştan daha iyi bilen bir vesayet devleti figürü ortaya çıkıyor. Bu ilkenin sigaraya karşı mücadelede bir kazanım olduğunu görüyoruz, reklamcılığa karşı mücadelede ise kendiliğinden yapılan satın alımların yasaklanması veya sınırlandırılmasından bile bahsedebiliriz (bu tür satın alımların bazen çok yaşlılar için yasaklandığı bilinmektedir). (bunama hastalığına yakalananlar).

Bu muazzam zorluklar karşısında yapay zeka konusu artık yalnızca teknik bir ayrıntı olarak kalıyor. Yapay zeka reklam etkinliğini artıran unsurlardan sadece biri. Sorunun özü, reklam canavarı ne kadar güçlüyse, onun arka planında yer alan bireylerin de o kadar az aklı başında ve özerk görünmesidir.

 

İnsanlar gerçekten bu kadar iyi mi? 

 

Frank Pasquale ve Cathy O'Neill'in argümanındaki ciddi bir kusur, gerçek, kusurlu bir yapay zekayı idealize edilmiş bir insanla karşılaştırmaları ve yapay zekanın yerini aldığı insanın bir öğretmen, bir yargıç, bir general, bir banka memuru olduğu gerçeğini göz ardı etmeleridir. memur—değişik derecelerde korkunç, öfkeli, beceriksiz, ahlaksız olabilir veya hiç olmayabilir.

İncelenen kitapların yazarlarının düşüncesi aşağı yukarı şu yoldadır. Yapay zeka duygulardan yoksundur; Daha önce insan ilişkileri üzerine kurulmuş olan çeşitli idari ve diğer süreçlerde insanları yer değiştirir; Böylece insanlık, empati vb. kavramlar idari süreçlerden uzaklaştırılmış oluyor. Amerikalı matematikçi Cathy O'Neill, "Killer Big Data" adlı kitabında, bir sinir ağının, bir suçluya (yasal aralık içinde) ne kadar ceza verileceğini, istatistiksel olarak hesaplanan tekrar suç işleme olasılığına dayanarak Amerikan yargıçlarına tavsiye ettiği bir sistemi eleştiriyor. Bu özelliklere sahip kişi. Böylece suçlu, yargıcın sadece vicdanı ve sezgileriyle hareket etmesi halinde gösterebileceği insanlık hakkından mahrum bırakılmış olur.

Yazarlar, bu ve benzeri diğer durumları analiz ederken, en azından adalet ve insanlık açısından (verimlilikten bahsetmeyelim) insanların yapay zekanın işini daha iyi yaptığına dair kanıt sunma zorunluluğunu hissetmiyorlar. Bir başka soru şudur: Yöneticilere, memurlara ve hâkimlere emanet edilen önemli meselelerin çözümünde, her zaman belirli insani nitelikler, özellikle duygular uygun mudur? Duyguların sadece acıma ve empatiyi değil, aynı zamanda zulmü, sadizmi ve ırksal önyargıyı da beslediğini söylemeye gerek yok, bu da bilgisayar yargıcının suçluyu sadece insanlık tezahürlerinden değil, aynı zamanda zulüm tezahürlerinden de kurtardığı anlamına geliyor.

Ayrıca, sadece zulmün değil, olumlu duyguların da her zaman uygun olmadığı bir yönü var: Bir yetkili, aniden üzerinde yükselen sempatinin etkisiyle, belirli kuralları ihlal ederek, belirli bir kişi lehine bir karar verirse, bu durum, ona doğru zamanda acıma duygusunu aşılayamayan diğer insanlara karşı bir ayrımcılık olarak ortaya çıkabilir. Odoyevski, “Enfiye Kutusundaki Kasaba” adlı masalında, “iyi bir gözetmenin” gözetim altındakilere zarar vereceğini yazmıştır. Yangın güvenliği denetimlerinde veya suçluların cezalandırılmasında nezaket ve hoşgörünün faydası var mıdır? Otomatik bir iktidar kurumuyla tam teşekküllü, "insani" bir diyaloğun imkânsız olmasını, bunun acıma ve diğer insani duygulardan yoksun olmasını olumsuz olarak mı değerlendirmeliyiz?

 

Kötülük Olarak Verimlilik

 

Aynı zamanda, bilgi teknolojilerindeki gelişmenin –ve yalnızca bilgi teknolojilerinin değil- toplumu, daha önce toplanması imkânsız olan, insanlara ilişkin bilgilerin toplanmasıyla ilgili yeni çatışmalarla karşı karşıya bıraktığı da inkar edilemez Özellikle dikkat çekici olan, devletin veya kapitalist şirketlerin insanların genetik bilgilerine erişebilmesidir - sorun henüz gündeme gelmemiştir, ancak açıkça eşiğindedir.

Önemli bir yan konu da bilişim teknolojisindeki gelişmelerin, insanlar hakkında bilgi toplamayı kolaylaştırmasıdır. Bu durum, bazı şirketlerin, insanların sosyal medyada paylaştığı görselleri, katı bir dille konuşmak gerekirse, başkasının fikri mülkiyeti olmasına rağmen, kullanması nedeniyle ortaya çıkan çıkar çatışmalarına yol açtı .

Genel olarak, fikri mülkiyet haklarının ihlal edilmesinin kolaylığı BT'nin bir diğer sorunudur, ancak kesinlikle yeni değildir ve tamamen etik de değildir. Fikri mülkiyet hakları (ister icatlar için patentler, ister kitaplar için telif hakları olsun) her zaman ihlal edilmesi kolay olmuştur. Bilindiği gibi SSCB, yabancı yazarların telif haklarını hiçbir şekilde tanımamıştır. Burada bilgi teknolojileri yalnızca bilgi nesnelerinin kopyalanması prosedürünü kolaylaştırır ve daha sonra yasal, teknik, ekonomik, bazen politik sorunlar ortaya çıkar (eğer tüm bir ülke "korsanlıkla" uğraşıyorsa) - ancak hiçbir şekilde etik sorunlar değil, bilgisayarlar ve internet bu soruna bir çözüm getirmiyor. Bu etik açıdan özel bir "dönüş".

İnsanların kişisel verilerinin istihbarat örgütleri ve diğer devlet kurumları tarafından kötüye kullanılmasından korunması söz konusu olduğunda, yapay zeka ve bilgi teknolojisi sorunu bir diğerinin parçası haline geliyor: Hükümet etkinliği sorunu.

"Kanunların şiddeti, bunların uygulanmasının zorunlu olmamasıyla telafi edilir" - bu aforizma, tüm ülkeler için geçerli olan son derece geçerli bir fikri ifade eder: Devletin etkisizliği, fiili olarak siyasi özgürlüğün kaynaklarından biridir. kaynak genellikle gizli tutulup dikkate alınmaz. Hükümetin etkinliğini sınırlama sorunu, reklamın etkinliğini sınırlama sorununa benzer, ancak daha da önemlidir. Tiranlık açıkça olumsuz bir olgu olarak yorumlandığında, tiran bir devlet aygıtının etkisizliği bir lütufa dönüşür - ve polisin protestocuları tespit etmek için video kameralar ve yapay zeka kullanmasını istemeyiz.

Devletin etkisizliği, ayaklanma olasılığı, ordunun isyan etme veya itaatsizlik etme olasılığı, ağır işten kaçma olasılığı, bir muhalifin yurtdışına kaçma olasılığı, Sahte belgelerle yetkililerden saklanma, basında sansürün aldatılma olasılığı. Sorun şu ki, “yasaların düzenli ihlali” mantıksız, kontrol edilemeyen ve suç, uyuşturucu kaçakçılığı vb. gibi birçok olumsuz olguyla ilişkili bir güçtür. Bu nedenle, hiçbir zaman politik bir değer olarak görülmez. Charles Tilly'nin bize öğrettiği gibi, zayıf bir devlet demokratik olamaz. Belki de tek istisna, ABD Anayasası'nda ve diğer bazı belgelerde yer alan "isyan hakkı"dır; ancak bu hiçbir zaman gerçek bir hak olmamıştır. Oysa ihlal olasılığı özgürlüğün boyutlarından biri ve belki de demokrasinin gizli olgusal koşullarından biridir.

Etkili ve denetimsiz kolektif eylem olanağı olmadan siyasal özgürlüğün olamayacağı açıktır. Devletler teknik ve ekonomik imkânlar sayesinde daha verimli hale geldikçe, etkili yönetişimin siyasal riskleri sorusuyla karşı karşıya kalıyoruz. Ve böylece, verimsizliğe yönelik bir talep, “isyan hakkı”nın bir tür modern hipostazı olarak ortaya çıkabilir (elbette, böyle bir formülasyon ancak “kontrollü ve düşünceli verimsizlik” söylemi biçiminde mümkün olabilir ki bu da (özünde bir paradoks).

Ancak bu sorun, yapay zekanın etiği sorusundan çok daha geniştir. Mesele, devletin sahip olduğu bazı teknik imkânları kullanmasının engellenmesidir. Demokratik devletlerde böyle bir düzenleme kısmen mümkün olabilir, ancak modern teknolojiyle donatılmış tiranlıklar yenilmez görünüyor - bu, 20. yüzyılın klasik distopya yazarları Zamyatin ve Orwell tarafından bilimkurguda ifade edilmişti ve yakın zamanda Alman bilimkurgu yazarları tarafından ayrıntılı olarak açıklandı. Roman yazarı Andreas Eschbach'ın "Kontrol" adlı romanında, Hitler rejimine İnternet ve büyük veri teknolojilerinin olanaklarının açıldığı anlatılıyor.

Özetle, etik sorunların çoğunun bilgisayardan değil, yapay zekâ tarafından geliştirilen, hizmet verilen, hatta zaman zaman korunan insanların eylem ve kararlarından kaynaklandığını kabul etmek gerekir. Ancak elbette, yapay zekanın karar alma süreçlerine dahil edilmesi, teknik eksikliklerin hangi noktada insanlardan kaynaklandığını ve hangi noktada teknik bir başarısızlıkla karşı karşıya olduğumuzu tespit etmek için özel bir analiz gerektiriyor. Yapay zekanın karmaşıklığı ve belirsizliği şüphesiz modern toplumun karşı karşıya olduğu en önemli zorluktur, ancak yapay zekanın özellikleriyle ilgili çok fazla özel etik sorun bulunmamaktadır.



 




[1] KonovalovaL. V. Uygulamalı Etik (Batı literatürüne dayalı). Sayı 1: Biyoetik veEkoetik. M., IFRAS, 1998, s. 26

 

[2] BarbourI. Teknoloji Çağında Etik. M., St. Louis İncil ve İlahiyat Enstitüsü Andrey. Erkek, 2001.

 

[3] PasqualeF. Robotikteki Yeni Yasalar: Yapay Zeka Çağında İnsan Bilgisinin Bir Savunması. Bay, "Delo", 2022; O'NeilK. Killer Büyük Veri: Matematik Nasıl Kitle İmha Silahına Dönüştü?Yüksek Lisans, "AST", 2018;StahlB.K.,Schroeder D.,RodriguezR. Yapay Zeka Etiği: Etik Sorunlara İlişkin Örnekler ve Çözümler. Yüksek Lisans, Ekonomi Yüksek Okulu, 2024.

 

YAZAR HAKKINDA

Konstantin Frumkin

Frumkin Konstantin Grigorievich - gazeteci, filozof, kültür bilimci. 1970 yılında Moskova'da doğdu. Finans Akademisi'nden mezun oldu. Kültürel Çalışmalar Adayı. Sosyoloji, siyaset bilimi, edebiyat eleştirisi üzerine çok sayıda makalenin yazarı. Novy Mir'e düzenli katkıda bulunan kişi. Moskova'da yaşıyor.

Hiç yorum yok:

Yorum Gönder