Konstantin
Frumkin
"Yeni
Dünya" Sayı 12, 2024
Kaynak:
https://nm1925.ru/
Yapay zekânın (YZ) kullanımından kaynaklanan etik sorunlar
konusu, günümüzde Batı sosyal bilimlerinde son derece moda hale gelmiştir. Bu
konu hakkında çok geniş bir literatür bulunmaktadır.
Neden?
Elbette cevabın ilk kısmı, bilgi teknolojisinin (Yapay Zeka
teknolojisi de dahil) yüksek bir gelişme düzeyine ulaştığı ve insan
faaliyetinin çok çeşitli yönleri üzerinde her zamankinden daha fazla etki
kazandığıdır. Peki, bu bağlamda, yeni teknolojilerin politik veya toplumsal
sorunları yerine etik sorunları hakkında neden bu kadar çok konuşuluyor?
Uygulamalı
Etikte Yeni Konu
İlk bakışta yapay zekânın bir tür yarı varlık, sıradan
bir insan kişiliği gibi ahlaki seçimler yapmak zorunda olan yapay bir zihin
olarak sunulması asıl meseledir . Ancak yapay zeka etiği
makalelerinde tartışılan gerçek vakalarda böyle bir yanılsama mevcut
değil. Ve bunun başlıca nedeni, son onyıllarda Batı'da etik denen şeyin
sınırlarının oldukça keskin bir şekilde genişlemesidir.
Sosyal bilimlerde “ekonomik emperyalizm” kavramı vardır;
yani ekonomik (ve her şeyden önce ekonomik-matematiksel) bilimsel
yöntemlerin demografi veya siyaset bilimi gibi ilgili alanlara
yayılması. Benzer şekilde, etiğin kendisi için tamamen yeni olan konulara ve
meselelere doğru genişlemesi anlamına gelen “etik emperyalizm”den de söz
edilebilir. 20. yüzyılın ikinci yarısından itibaren Batı'daki etik ve Batı'yı
takip eden dünyanın diğer bölgelerindeki etik, ekolojiden siyasete, tıptan adalete
kadar çok çeşitli sorunları çözmek için uyarlanmaya çalışılmıştır. Bu da çok
sayıda etik komitenin kurulmasına ve etik kodların yazılmasına yol açtı.
“Etik emperyalizm”, diğer şeylerin yanı sıra, akademik
etiğin “genişlemesinde” kendini göstermektedir. Bilindiği üzere dar anlamda
etik, felsefenin ahlakla ilgilenen dalıdır; üniversitelerde etik bölümleri
vardır ve böylece 20. yüzyılın son çeyreğinden itibaren Batı'da, özellikle de
ABD'de etik profesörleri günlük yaşamın çok çeşitli konularıyla ilgilenmeye
başlamış, tıp alanından nükleer enerjiye kadar çok çeşitli alanlarda etik
düzenleme ilkeleri geliştirme çabasına girmişlerdir. Bilimsel etiğin kapsamının
bu sınırsız genişlemesine “uygulamalı etik” adı verilmiştir.
Başlangıçta, uygulamalı etiğin uygulanmasında öncelikli
alan tıptı ve bu bir tesadüf değildi: ahlaki ilkelerin her zaman ortak yeri,
bireyin yaşamının ve onurunun "yakınlarının" saldırgan
tecavüzlerinden korunmasıdır. - Ahlak, her şeyden önce insanların birbirlerinin
yaşam ve çıkarlarına tecavüz etmemeleri yönündeki karşılıklı bir yükümlülüktür.
Bu arada, tam da tıp alanında, sürekli ama aynı zamanda toplumsal olarak
kontrol edilen bir yaşam tehlikesi ortaya çıkar ve buna bağlı olarak ahlaki
denebilecek sorular ortaya çıkar - insanların birbirlerinin yaşamlarını koruma
yükümlülüklerini etkilemeleri anlamında. Batı'da uygulamalı etik alanında önde
gelen Rus uzmanlardan L. V. Konovalova'nın 1990'larda yazdığı gibi, uygulamalı
etik "yaşam tehlikesi ve ölüm korkusu" olduğunda ortaya çıkar [1] .
Uygulanan etik, kürtaj, ötanazi, hastaların yapay
solunumdan uzak tutulması, tıbbi bakımın sağlanmasındaki mali kısıtlamalar,
canlılar üzerinde yapılan tıbbi ve biyolojik deneyler, doktorların hastalardan
bilgi gizlemesi, ölüm cezası gibi konularda her zaman kendini evinde
hissetmiştir. — insan hayatının tehlikede olduğu ve onu kurtarmak için ne gibi
çabaların sarf edilmesi gerektiği sorusunun ortaya çıktığı her yerde. İnsan
yaşamı belirsiz ve sonsuz bir değere sahip olduğundan, onunla ilgili meseleler
çoğu zaman eşit değerlerin alışverişine dayanan salt ticari, rutin bir çözümden
uzaklaşmakta ve tam da etik bir düzenlemeyi gerektirmektedir.
Ancak onlar aynı zamanda etiği medeniyetin diğer alanlarına
uygulamaya çalışıyorlar; bunun mükemmel bir örneği de Amerikalı filozof Ian
Barbour'un Teknoloji Çağında Etik [2] adlı
kitabıdır. Gıda üretiminden enerjiye kadar ulusal ekonominin en çeşitli “sektörlerinde”
ortaya çıkan ahlaki çatışmalardan bahsediyor ve buna bağlı olarak insanları
açlıktan kurtarmanın gerekliliğinden, enerjinin çevre dostu olması
gerektiğinden ve sürdürülebilir kalkınmaya odaklanmış, kısacası ekonominin ve
kamusal yaşamın tüm kesimlerinde “her şey için iyi, her şey için kötü mücadele”
üzerine odaklanmıştır.
Şimdi etikçiler, etik düzenlemenin ana konusu olarak tıbbın
yerini alan yapay zeka konusuna hevesle atılıyorlar.
Peki, bu konuda ortaya çıkan sorular gerçekten geleneksel
anlamda etik mi, diğer yandan da gerçekten yapay zekaya özgü mü? Son yıllarda
Rusçaya çevrilen Amerikan yazarların kitaplarındaki etik sorunlara dair
örneklerden yola çıkarak bu konuyu analiz etmeye çalışalım. Analizimiz için
malzeme olarak bu türden üç kitap ele alacağız: Frank Pasquale'nin "Robotik
Yasaları" , Cathy O'Neil'in "Katil Büyük Veri" ve kolektif
monografi "Yapay Zekanın Etiği" [3] . .
Bilgisayarlar
insanlardan öğrenir
Bu kitaplarda sunulan vakaların birçoğu için, hatta çoğu
için, yapay zekanın kullanımının mevcut duruma kelimenin tam anlamıyla hiçbir
yenilik getirmediği söylenebilir.
İşte makine etiği uzmanlarını endişelendiren bir durum:
Polis büyük veri odaklı öngörücü analizlere güvenirse, şehrin daha fazla suç
geçmişi olan ve dolayısıyla daha düşük gelirli insanların bulunduğu daha fakir
bölgelerine odaklanmaları muhtemeldir. Daha yakın polis gözetimi altında
olduklarından hapse girme olasılıkları daha yüksektir. Kötü mahallelerin daha
fazla denetlenmesinin adil olup olmadığı sorusunu bir kenara bırakırsak, bu
durumda yapay zekanın, kötü mahallelerin sınırlarını daha doğru bir şekilde
belirlemek dışında özel rolü nedir? Polis arabalarının suçun daha çok işlendiği
yerlere gönderilmesine halk ve sadece halk karar verdi. Yapay zeka -doğru veya
yanlış- bilimsel olarak kanıtlanmış yöntemlere dayanarak onlara bu yerleri
gösterdi. Diğer tüm açılardan yapay zekanın kesinlikle bir suçu olmayacaktır.
Polis analistleri, büyük veri teknolojisini kullanmadan suçların nerede
işlenebileceğini iyi veya kötü şekilde tahmin edebilirler.
Önemli olan nokta, yapay zekanın hala insan kararlarına
hizmet ediyor olması ve bu kararların bir uzantısı olmasıdır. İlginç bir vaka
daha: Yapay zeka, büyük bir şirketteki iş adaylarından alınan verileri, önceki
yıllarda insan yöneticilerin gerçekleştirdiği aday seçme deneyimlerine
dayanarak analiz etti. Bu sistem, yöneticilerin geçmişte iyi çalışanları
seçmede iyi olduklarını ve makinenin sadece onlardan öğrenmesi gerektiğini
varsaydı. Sonuç tahmin edilebilirdi: Yapay zekâ, insan pratiğinin
özelliklerini, eksiklikleri de dahil olmak üzere, yeniden üretmeye başladı.
Özellikle yapay zeka kararlarının kadın adaylara karşı ayrımcılık yaptığı
ortaya çıktı; Suçlu yapay zeka değildi: Kadınlar, bilgisayarın sadece taklit
ettiği yöneticiler tarafından ayrımcılığa uğruyordu.
Bu bağlamda akla gelen soru şudur: Acaba özel bir “Yapay
Zeka etiği” sorunuyla mı karşı karşıyayız?
İşgücü piyasasında kadınlara yönelik ayrımcılık sorununun
yapay zekadan, en ilkel bilgisayarlardan bile daha eski olduğu aşikardır.
Ayrıca bu özel durumda ortaya çıkan sorunun bilgisayar
programlarından değil, insan pratiklerinden kaynaklandığı açıktır.
Öte yandan, kuşkusuz eski sorunların yeni bir varoluş
bağlamı ve yeni bir tezahür biçimiyle karşı karşıyayız. Yenilik, insan (makine
değil) uygulamalarında kadınlara karşı ayrımcılığın makine öğrenmesi için
kullanılan verilerde şifrelenerek saklanmasıdır. Bu anlamda yapay zekâ etiği
konusu, bilinen toplumsal ve ahlaki sorunların tartışılması için yeni ve önemli
bir neden olarak karşımıza çıkmaktadır. Üstelik bu eski sorunlar, sorunların
kaynağı olan bilgi ve belgelerin özel bir kod halinde sunulması ve düzeltilmesinin
profesyonel beceri gerektirmesi durumunda tartışılmaktadır. Kadınlara yönelik
ayrımcılık mevzuata dayandığında, hukuki danışmanlık gerektiğinde ve sorunların
kaynağı yasalar değil, makine öğrenimi için veriler olduğunda, ahlaki
tartışmalara bilgi teknolojisi uzmanlarını dahil etmeden yapmak imkansızdır,
ancak büyük ölçüde son söz yine de onlara aittir. Beşeri bilimler uzmanlarıyla.
Ancak toplum kadınlara veya engellilere bazı avantajlar ve ayrıcalıklar
sağlamak istiyorsa, günümüzde buna uygun değişikliklerin yalnızca yasalarda
değil, aynı zamanda karar alma AI sistemlerinin ayarlarında da (örneğin,
özgeçmişleri analiz edenler) yapılması gerekir. ).
İki örnek daha verelim.
Avustralyalı bir şirkette çalışan bir kişi, bilgisayar
sisteminden gelen fesih emri nedeniyle işten çıkarıldı, hatta çalışanın en
yakın amiri bile işten çıkarılma nedenini anlayamadı. Sadece üç hafta sonra
bunun sebebinin şirketten ayrılan başka bir çalışanın dikkatsizliği olduğu
ortaya çıktı; o sadece doğru düğmeye basmayı unutmuştu.
İkinci örnek: ABD'de siyah bir mahkûmun erken tahliye
talebi bilgisayar sistemi tarafından reddedildi; Bunun sebebi, ırkçı
önyargılara sahip güvenlik görevlilerinin olumsuz yorumlarının sisteme
yüklenmesiydi.
Her iki örnekte de (yazarlar bunları yapay zeka ile
ilişkili etik sorunlara örnek olarak sunmuş olsalar da) asıl sorunlar
bilgisayarlardan değil, insanların eylemlerinden kaynaklanmaktadır. Bilgisayar
sistemleri günümüzde önemli olmasa bile her iki sorun da ortaya çıkabilir.
Örneğin, bir iş sözleşmesinin uzatılmasına ilişkin belgelerin düzenlenmesinde
dikkatsizlik, çalışanın işten çıkarılmasına yol açabilir. Irkçı gardiyanlardan
gelen olumsuz geri bildirimler elbette erken tahliye için her zaman caydırıcı
olacaktır. Ancak durumun özgüllüğü, bilgisayar sisteminin karmaşıklığının,
yanlış eylemlerinin nedenlerini bulmayı çok zorlaştırması gerçeğinde de
yatmaktadır. Sonuç olarak Avustralyalı çalışanın işten çıkarılma nedenlerini
öğrenmesi haftalar alırken, Amerikalı mahkûmun işten çıkarılmayı reddetme nedenlerini
öğrenmesi yıllar aldı. Ve bu kesinlikle bir sorun, ancak kendi içinde etik
olmaktan çok teknik bir sorun. Aynı zamanda, insanları bu tür teknik
zorlukların risklerine maruz bırakan bilgisayar sistemlerini uygulamaya koyma
hakkımız olup olmadığı da etik bir sorudur. Ancak bu sorunun ahlaki açıdan çok
da zor olmadığı anlaşılıyor, zira çözümleri teknik alanda yatıyor; yapay
zekanın daha bilgilendirici ve anlaşılır bir arayüze ihtiyacı var.
Opaklık
sorunu
Ancak yukarıdaki durumların çok daha karmaşık bir konuyu
gündeme getirdiğini kabul etmek gerekir. Gerçek şu ki, "büyük
veriler" üzerinde eğitilen sinir ağlarının belirli kararları
nasıl aldığına dair kesin mekanizma belirsizdir. Bu soru, edebi
distopyaların da konusu olmuştur; bunlardan biri de Polonyalı bilimkurgu
yazarı Rafal Kosik'in "Tespih" adlı romanıdır. Kosik'in kurduğu
dünyada şehir, ortadan kaldırma servisinin bağlı olduğu süper güçlü bir
bilgisayar zekasının kontrolü altındadır. Bu sadece polis değil. Polis, daha
önce işlenmiş suçları soruşturup cezalandırırken, Eliminasyon henüz hiçbir şey
yapmamış ancak yapay zeka hesaplamalarına göre gelecekte bir şey yapma ihtimali
çok yüksek olan kişileri ortadan kaldırıyor.
İnsan-yapay zeka ilişkisindeki temel sorun, bu ilişkinin
anlaşılamaması ve neyin rehberliğinde olduğunun bilinmemesidir. Bilinen tek şey
her yıl binlerce insanın Eliminasyona gönderildiği, ancak bunun ne anlama
geldiğinin bile bilinmediği: acısız bir öldürmeden söz edildiği varsayılıyor. Yapay
zeka diktatörlüğüne karşı savaşmaya çalışan yeraltı direnişi, yapay zekanın
yeraltına karşı da savaştığına inanıyor, ancak bu, direniş üyelerinin şüpheli
bir şekilde sık sık yer altında olmaları gerçeğine dayanarak yalnızca bir
olasılıkla yapılabilecek bir varsayımdır. Elemelere girmek. Rafal Kosik'in romanında yapay
zekânın egemenliğine karşı ilk direniş eylemi, en azından onun kararlarını
nasıl aldığını anlamamızı sağlayacak, insan dostu bir arayüz yaratma
girişimiydi. Ancak yapay zeka, perde arkasına bakmak isteyenleri acımasızca
cezalandırıyordu; görünüşe göre gücüne yönelik bir saldırının aynı zamanda
koruduğu insanların güvenliğine ve refahına yönelik bir saldırı olduğuna
inanıyordu.
Sinir ağlarından oldukça resmi alanlardaki problemleri
çözmeleri istendiğinde (satranç oynamak, borsada işlem yapmak, denklem
hesaplamak) çözümlerinin etkililiğini kontrol etmek oldukça kolaydır.
Ancak, yapay zekalı İK uzmanının etkinliği, yapay zekalı İK uzmanının
özgeçmişlerini analiz ederek bir pozisyon için aday seçmesi istendiğinde,
yalnızca sezgisel olarak ve yapay zekalı İK teknolojisine olan güven
varsayımına dayanarak değerlendirilebilir .
Burada, yapay zekanın boş pozisyonlar için aday seçmesine
izin vermenin etik gerekçesinin tartışılmasında bir yol ayrımı ortaya çıkıyor.
İlk soru - "Bilgisayar-İK uzmanı mı yoksa bilgisayar yöneticisi mi
etkilidir?" - elbette önemlidir, ancak bu bir etik değil, bir yönetim
sorunudur. Ahlaki açıdan ikinci soru önemlidir: İnsanları, temelde belirsiz ve
bilinmeyen amaçlara sahip bir makinenin gücüne teslim etmek adil midir?
Bu iki soru birbirinden tamamen farklı gibi görünse de
aslında birbirleriyle yakından ilişkilidir. Çünkü yapay zeka yönetim
sistemlerine dahil edilmeden önce, çalışanlar genellikle, çalışanlarının
refahından çok, yönettikleri kuruluşların hedeflerine ulaşmayı önemseyen üst
düzey yöneticilerin insafına kalmıştı; özel işletmelerde ise durum böyleydi.
karı maksimize etmek. Kapitalist bir işletmenin çalışanı, doğası gereği
sömürüye (bu terim nasıl yorumlanırsa yorumlansın) maruz kalır ve şirket
yönetiminin koyduğu kurallara göre hareket eder. Birtakım taktiksel kararlar
(personel seçimi veya banka kredisi için başvuranların değerlendirilmesi) veren
bir aygıt olarak sinir ağının ortaya çıkması, iyi veya kötü, insanlar
tarafından icat edilip organize edilen bu sistemin devamından başka bir şey
değildir.
Kapitalizm
suçludur
Yapay sinir ağının kurumsal yönetim
alanındaki kararları çalışanlar açısından şeffaf değildir, ancak üst düzey
yöneticilerin kararlarının gerekçeleri konusunda astlarına rapor vermeleri
gerekmez. Ve bu durumda sinir ağı, belirli konularda kendisine
güvendiklerine karar veren üst düzey yöneticilerin gücünün bir uzantısıdır.
Bütün bunlar burada sorunlarımızın olmadığı anlamına
gelmiyor. Etik olanlar da dahil - ama asıl mesele şu ki, bu sorunlar tamamen
yapay zeka alanına özgü değil. Harvard Üniversitesi profesörü Frank Pasquale'nin "Robotik
Yasaları" adlı kitabının temel eksikliği tam da budur. Kitap,
insanları şeffaf olmayan yapay zeka kararlarına tabi tutmanın, onları insan
muamelesi görme hakkından mahrum bıraktığı ve insan onuruyla bağdaşmadığı
yönünde çok sayıda tartışma içeriyor. Pasquale , aslında yapay
zekanın eksikliklerini, bu yapay zekanın çalışmasının altında yatan yöntemin
eksiklikleriyle ve bu yapay zekanın kullanıldığı amaçların eksiklikleriyle
karıştırıyor.
Örneğin: Yapay zeka, iş başvurusunda bulunanları veya potansiyel
borçluları, yürüyüş gibi görünüşte alakasız şeylerle olan korelasyonlara göre
değerlendiriyor ve bu da adil değil. Ancak öncelikle, korelasyon ve
olasılıklara dayalı değerlendirme yapay zekaya özgü değildir; en azından anket
icat edildiğinden beri mevcuttur. Bu yöntem yapay zekaya ihtiyaç duymadan da
kullanılabilir. İkinci olarak, bu seçimi yapan kuruluşların hedefleri ve
yetkileri konusunda soru işaretleri ortaya çıkmaktadır. Biz onlardan ne
istiyoruz? En verimli çalışanları ve en kredibilitesi yüksek borçluları seçmeli
mi, seçmemeli mi? BT uzmanlarına güvenen banka ve şirket yöneticileri,
potansiyel borçlular veya potansiyel çalışanlar hakkında mümkün olduğunca fazla
bilgiyi dikkate almanın daha etkili olduğuna, ardından seçimlerinin daha etkili
olacağına inanıyorlar. Bu tercihin daha az etkili olmasını ister miyiz? Bunun
doğrudan konuşulması gerekiyor.
Bunu söylediğinizde, yapay zekaya yönelik bu eleştirilerin
"bilinçaltında", eğer faydalar herkese dağıtılamıyorsa, o zaman rastgele dağıtılması
gerektiğini düşünme noktasına varan bir solcu eşitlik hayali yattığı izlenimini
edinirsiniz. körü körüne.
İncelenen sorunların mantığı, Pasquale'i yapay
zeka eleştirisinden, kapitalist bir şirketteki yönetim ile işçiler arasındaki
ilişkinin eleştirisine götürüyor; Bu sorun çerçevesinde yapay zeka, yönetim
gücünün yalnızca bir yükselticisidir ve örneğin Pasquale, şirket
yönetiminde sendikaların rolünün artırılmasını önermektedir (burada ABD için
Almanya bir örnektir). Dolayısıyla yapay zekâ etiğine ilişkin kaygı kisvesi
altında, kapitalizmin ve kapitalist işletmelerin küresel etik sorunlarına
ilişkin bir kaygının yattığı açıkça ortaya çıkıyor. Bu mantık, Frank Pasquale'i iş
ve üretimde otomasyon ve robotik sistemlerinin kullanımını sınırlamaya yönelik
bir " Ludist " mantığına götürür: Yapay zeka ve robotların
insan işçilerin verimliliğini artırması gerektiğini, ancak onları değiştirin.
Bu talep, yeni teknolojilerin tanıtılmasının tüm tarihine aykırı olduğu için
hiç kuşkusuz kahramanca bir iddiadır. Şimdiye kadar teknoloji, insanları etkili
ve ucuz bir şekilde değiştirebildiği yerde, onları değiştirmiştir. Yapay zeka
etiği, yüzyıllardır süregelen teknolojik işsizlik sorunu tartışmalarında,
“aydınlanmış Luddizm ”in (belirli teknolojik çözümlere duyulan korku)
haklı çıkarıldığı yeni bir dönemin mi ortaya çıktığı sorusunu gündeme
getiriyor.
Dolayısıyla bilgi teknolojisinin kullanımını eleştirenler,
çoğunlukla kapitalist şirketlerin gerçekleştirdiği bazı faaliyetlerin daha
verimli bir şekilde yürütülmesini istemezler. Mesela daha etkili reklamlardan
hoşlanmıyorlar. Yapay Zekanın Etiği kitabında aktarılan rahatsız edici
vakalardan biri de, insanların ortalama olarak reklamlarla ikna olma
olasılıklarının en yüksek olduğu hafta içi gün ve saatleri belirlemek için büyük
veri analitiğinin kullanılmasıdır. Şirketler bu "zayıf zamanları"
belirleyerek reklam çabalarını bu zaman dilimlerine odaklayabilirler.
Eleştirmenler, yapay zekanın bu şekilde zihin manipülasyonu için bir araç
haline geldiğine inanıyorlar; ancak "manipülasyon" kavramının son
derece belirsiz olduğunu da unutmamak gerekir; reklamcılık sektörünün
cephaneliğinin genişlemesinde sadece küçük bir adımdan başka bir şeye
bakmıyoruz.
Son 100-150 yıldır reklamcılar kitle psikolojisini
inceliyor ve mümkün olduğunca etkili birer manipülatör olmaya çalışıyorlar.
Dolayısıyla asıl soru yapay zeka ve büyük veri değil, insanların reklam
bilgilerinden korunup korunmayacağı ve nasıl korunacağıdır. Yapay zekanın
reklamcılıkta kullanılması eleştirilmeye başlanmadan önce, eleştiriler
televizyon reklamlarının manipülatif etkilerine veya seyyar satıcıların
gevezeliklerine yönelikti.
Bir kişiyi reklamdan korumaya karar verdiğimiz durumlarda,
reklam " mesajı " ile karşılaştığı anda kişinin tam
anlamıyla aklı başında olmadığını ve rasyonel kararlar alamayacağını
varsaymamız önemlidir. 25. kare yasağında bu delilik karinesi açıkça
uygulanmıştır, ancak bu ilkenin yaygınlaştırılması ayrı bir ahlaki ve siyasal
sorundur. Vatandaşın çıkarının ne olduğunu vatandaştan daha iyi bilen bir vesayet
devleti figürü ortaya çıkıyor. Bu ilkenin sigaraya karşı mücadelede bir kazanım
olduğunu görüyoruz, reklamcılığa karşı mücadelede ise kendiliğinden yapılan
satın alımların yasaklanması veya sınırlandırılmasından bile bahsedebiliriz (bu
tür satın alımların bazen çok yaşlılar için yasaklandığı bilinmektedir).
(bunama hastalığına yakalananlar).
Bu muazzam zorluklar karşısında yapay zeka konusu artık
yalnızca teknik bir ayrıntı olarak kalıyor. Yapay zeka reklam etkinliğini
artıran unsurlardan sadece biri. Sorunun özü, reklam canavarı ne kadar
güçlüyse, onun arka planında yer alan bireylerin de o kadar az aklı başında ve
özerk görünmesidir.
İnsanlar
gerçekten bu kadar iyi mi?
Frank Pasquale ve Cathy O'Neill'in argümanındaki ciddi
bir kusur, gerçek, kusurlu bir yapay zekayı idealize edilmiş bir insanla
karşılaştırmaları ve yapay zekanın yerini aldığı insanın bir öğretmen, bir
yargıç, bir general, bir banka memuru olduğu gerçeğini göz ardı etmeleridir.
memur—değişik derecelerde korkunç, öfkeli, beceriksiz, ahlaksız olabilir veya
hiç olmayabilir.
İncelenen kitapların yazarlarının düşüncesi aşağı yukarı şu
yoldadır. Yapay zeka duygulardan yoksundur; Daha önce insan ilişkileri üzerine
kurulmuş olan çeşitli idari ve diğer süreçlerde insanları yer değiştirir;
Böylece insanlık, empati vb. kavramlar idari süreçlerden
uzaklaştırılmış oluyor. Amerikalı matematikçi Cathy O'Neill, "Killer Big
Data" adlı kitabında, bir sinir ağının, bir suçluya (yasal
aralık içinde) ne kadar ceza verileceğini, istatistiksel olarak hesaplanan
tekrar suç işleme olasılığına dayanarak Amerikan yargıçlarına tavsiye ettiği
bir sistemi eleştiriyor. Bu özelliklere sahip kişi. Böylece suçlu,
yargıcın sadece vicdanı ve sezgileriyle hareket etmesi halinde gösterebileceği
insanlık hakkından mahrum bırakılmış olur.
Yazarlar, bu ve benzeri diğer durumları analiz ederken, en
azından adalet ve insanlık açısından (verimlilikten bahsetmeyelim) insanların
yapay zekanın işini daha iyi yaptığına dair kanıt sunma zorunluluğunu
hissetmiyorlar. Bir başka soru şudur: Yöneticilere, memurlara ve hâkimlere
emanet edilen önemli meselelerin çözümünde, her zaman belirli insani
nitelikler, özellikle duygular uygun mudur? Duyguların sadece acıma ve empatiyi değil,
aynı zamanda zulmü, sadizmi ve ırksal önyargıyı da beslediğini söylemeye gerek
yok, bu da bilgisayar yargıcının suçluyu sadece insanlık tezahürlerinden değil,
aynı zamanda zulüm tezahürlerinden de kurtardığı anlamına geliyor.
Ayrıca, sadece zulmün değil, olumlu duyguların da her zaman
uygun olmadığı bir yönü var: Bir yetkili, aniden üzerinde yükselen sempatinin
etkisiyle, belirli kuralları ihlal ederek, belirli bir kişi lehine bir karar
verirse, bu durum, ona doğru zamanda acıma duygusunu aşılayamayan diğer
insanlara karşı bir ayrımcılık olarak ortaya çıkabilir. Odoyevski, “Enfiye
Kutusundaki Kasaba” adlı masalında, “iyi bir gözetmenin” gözetim
altındakilere zarar vereceğini yazmıştır. Yangın güvenliği
denetimlerinde veya suçluların cezalandırılmasında nezaket ve hoşgörünün
faydası var mıdır? Otomatik bir iktidar kurumuyla tam teşekküllü,
"insani" bir diyaloğun imkânsız olmasını, bunun acıma ve diğer insani
duygulardan yoksun olmasını olumsuz olarak mı değerlendirmeliyiz?
Kötülük
Olarak Verimlilik
Aynı zamanda, bilgi teknolojilerindeki gelişmenin –ve
yalnızca bilgi teknolojilerinin değil- toplumu, daha önce toplanması imkânsız
olan, insanlara ilişkin bilgilerin toplanmasıyla ilgili yeni çatışmalarla
karşı karşıya bıraktığı da inkar edilemez Özellikle dikkat çekici olan,
devletin veya kapitalist şirketlerin insanların genetik bilgilerine
erişebilmesidir - sorun henüz gündeme gelmemiştir, ancak açıkça eşiğindedir.
Önemli bir yan konu da bilişim teknolojisindeki gelişmelerin,
insanlar hakkında bilgi toplamayı kolaylaştırmasıdır. Bu durum, bazı
şirketlerin, insanların sosyal medyada paylaştığı görselleri, katı
bir dille konuşmak gerekirse, başkasının fikri mülkiyeti olmasına
rağmen, kullanması nedeniyle ortaya çıkan çıkar çatışmalarına yol açtı .
Genel olarak, fikri mülkiyet haklarının ihlal edilmesinin
kolaylığı BT'nin bir diğer sorunudur, ancak kesinlikle yeni değildir ve tamamen
etik de değildir. Fikri mülkiyet hakları (ister icatlar için patentler, ister
kitaplar için telif hakları olsun) her zaman ihlal edilmesi kolay olmuştur.
Bilindiği gibi SSCB, yabancı yazarların telif haklarını hiçbir şekilde
tanımamıştır. Burada bilgi teknolojileri yalnızca bilgi nesnelerinin
kopyalanması prosedürünü kolaylaştırır ve daha sonra yasal, teknik, ekonomik,
bazen politik sorunlar ortaya çıkar (eğer tüm bir ülke "korsanlıkla"
uğraşıyorsa) - ancak hiçbir şekilde etik sorunlar değil, bilgisayarlar ve
internet bu soruna bir çözüm getirmiyor. Bu etik açıdan özel bir
"dönüş".
İnsanların kişisel verilerinin istihbarat örgütleri ve
diğer devlet kurumları tarafından kötüye kullanılmasından korunması söz konusu
olduğunda, yapay zeka ve bilgi teknolojisi sorunu bir diğerinin parçası haline
geliyor: Hükümet etkinliği sorunu.
"Kanunların şiddeti, bunların uygulanmasının zorunlu
olmamasıyla telafi edilir" - bu aforizma, tüm ülkeler için geçerli olan
son derece geçerli bir fikri ifade eder: Devletin etkisizliği, fiili olarak
siyasi özgürlüğün kaynaklarından biridir. kaynak genellikle gizli tutulup dikkate
alınmaz. Hükümetin etkinliğini sınırlama sorunu, reklamın etkinliğini sınırlama
sorununa benzer, ancak daha da önemlidir. Tiranlık açıkça olumsuz bir olgu
olarak yorumlandığında, tiran bir devlet aygıtının etkisizliği bir lütufa
dönüşür - ve polisin protestocuları tespit etmek için video kameralar ve yapay
zeka kullanmasını istemeyiz.
Devletin etkisizliği, ayaklanma olasılığı, ordunun isyan
etme veya itaatsizlik etme olasılığı, ağır işten kaçma olasılığı, bir muhalifin
yurtdışına kaçma olasılığı, Sahte belgelerle yetkililerden saklanma, basında
sansürün aldatılma olasılığı. Sorun şu ki, “yasaların düzenli ihlali”
mantıksız, kontrol edilemeyen ve suç, uyuşturucu kaçakçılığı vb. gibi
birçok olumsuz olguyla ilişkili bir güçtür. Bu nedenle, hiçbir zaman politik
bir değer olarak görülmez. Charles Tilly'nin bize öğrettiği gibi, zayıf bir
devlet demokratik olamaz. Belki de tek istisna, ABD Anayasası'nda ve diğer bazı
belgelerde yer alan "isyan hakkı"dır; ancak bu hiçbir zaman gerçek
bir hak olmamıştır. Oysa ihlal olasılığı özgürlüğün boyutlarından biri ve belki
de demokrasinin gizli olgusal koşullarından biridir.
Etkili ve denetimsiz kolektif eylem olanağı olmadan siyasal
özgürlüğün olamayacağı açıktır. Devletler teknik ve ekonomik imkânlar sayesinde
daha verimli hale geldikçe, etkili yönetişimin siyasal riskleri sorusuyla
karşı karşıya kalıyoruz. Ve böylece, verimsizliğe yönelik bir talep, “isyan
hakkı”nın bir tür modern hipostazı olarak ortaya çıkabilir (elbette, böyle bir
formülasyon ancak “kontrollü ve düşünceli verimsizlik” söylemi biçiminde mümkün
olabilir ki bu da (özünde bir paradoks).
Ancak bu sorun, yapay zekanın etiği sorusundan çok daha
geniştir. Mesele, devletin sahip olduğu bazı teknik imkânları kullanmasının
engellenmesidir. Demokratik devletlerde böyle bir düzenleme kısmen mümkün
olabilir, ancak modern teknolojiyle donatılmış tiranlıklar yenilmez görünüyor -
bu, 20. yüzyılın klasik distopya yazarları Zamyatin ve Orwell tarafından
bilimkurguda ifade edilmişti ve yakın zamanda Alman bilimkurgu yazarları
tarafından ayrıntılı olarak açıklandı. Roman yazarı Andreas Eschbach'ın "Kontrol"
adlı romanında, Hitler rejimine İnternet ve büyük veri teknolojilerinin
olanaklarının açıldığı anlatılıyor.
Özetle, etik sorunların çoğunun bilgisayardan değil, yapay
zekâ tarafından geliştirilen, hizmet verilen, hatta zaman zaman korunan
insanların eylem ve kararlarından kaynaklandığını kabul etmek gerekir. Ancak
elbette, yapay zekanın karar alma süreçlerine dahil edilmesi, teknik
eksikliklerin hangi noktada insanlardan kaynaklandığını ve hangi noktada teknik
bir başarısızlıkla karşı karşıya olduğumuzu tespit etmek için özel bir analiz
gerektiriyor. Yapay zekanın karmaşıklığı ve belirsizliği şüphesiz modern
toplumun karşı karşıya olduğu en önemli zorluktur, ancak yapay zekanın
özellikleriyle ilgili çok fazla özel etik sorun bulunmamaktadır.
[1] KonovalovaL.
V. Uygulamalı Etik (Batı literatürüne dayalı). Sayı 1: Biyoetik veEkoetik. M.,
IFRAS, 1998, s. 26
[2] BarbourI.
Teknoloji Çağında Etik. M., St. Louis İncil ve İlahiyat Enstitüsü Andrey.
Erkek, 2001.
[3] PasqualeF.
Robotikteki Yeni Yasalar: Yapay Zeka Çağında İnsan Bilgisinin Bir Savunması.
Bay, "Delo", 2022; O'NeilK. Killer Büyük Veri: Matematik Nasıl Kitle
İmha Silahına Dönüştü?Yüksek Lisans, "AST", 2018;StahlB.K.,Schroeder D.,RodriguezR.
Yapay Zeka Etiği: Etik Sorunlara İlişkin Örnekler ve Çözümler. Yüksek Lisans,
Ekonomi Yüksek Okulu, 2024.
YAZAR
HAKKINDA
Frumkin Konstantin Grigorievich - gazeteci, filozof, kültür
bilimci. 1970 yılında Moskova'da doğdu. Finans Akademisi'nden mezun oldu.
Kültürel Çalışmalar Adayı. Sosyoloji, siyaset bilimi, edebiyat eleştirisi
üzerine çok sayıda makalenin yazarı. Novy Mir'e düzenli katkıda bulunan kişi.
Moskova'da yaşıyor.
Hiç yorum yok:
Yorum Gönder