Yapay zeka dünyamızı yeniden şekillendirmeye devam ederken, fütürist konuşmacımız Richard van Hooijdonk akıllardaki en önemli soruyu irdeliyor: Benzersiz bir ilerleme çağını mı başlatıyoruz yoksa kendi yok olmamızın önünü mi açıyoruz? Hooijdonk görmezden gelmeyi göze alamayacağımız 10 tehditi sıralarken çözüm yollarını da öneriyor.
‘’Bir zamanlar yalnızca en basit görevleri yerine getirebilen yapay zeka, yıllar içinde önemli ölçüde ilerledi, giderek daha sofistike hale geldi ve kendisini günlük hayatımızın çeşitli yönlerine entegre etti. Akıllı telefonlarımızdaki sanal asistanlardan sosyal medya yayınlarımızda ne gördüğümüze karar veren algoritmalara kadar, yapay zeka neredeyse her yerde. Ama mesele şu ki – üretken yapay zeka sahneye çıktığında ve genel halk için erişilebilir hale geldiğinde yoğunlaşan bazı doğal riskleri de beraberinde getiriyor.
Amacımız korku yaymak veya aletlerinizi pencereden dışarı atmanızı sağlamak değil – henüz değil. Yapay zekanın hayatınıza ne ölçüde girmesine izin vereceğiniz konusunda daha bilinçli bir karar verebilmeniz için size madalyonun her iki yönünü de göstermek istiyoruz.
10. Bir dezenformasyon saldırısı
Yapay zekanın giderek daha gerçekçi görüntüler, video ve ses üretme yeteneği yakında kendi gözlerimizden ve kulaklarımızdan şüphe etmemize neden olabilir. O zaman neyin gerçek olduğunu nasıl bileceğiz?
Yapay zekanın çoğalmasıyla ilgili en büyük endişelerden biri, dezenformasyonun yayılmasını kolaylaştırabileceğidir. Yapay zeka tarafından oluşturulan görüntüler, video ve ses içeriği giderek daha gerçekçi hale geldikçe, gerçeği kurgudan ayırma yeteneğimizi azaltabilirler. Çok yakında, her bilgi parçası görünmez bir soru işaretiyle gelebilir ve görünüşte en güvenilir kaynaklardan bile şüphe duymamıza neden olabilir. Sonuçta, kendi gözlerinize ve kulaklarınıza güvenemiyorsanız, neye güvenebilirsiniz?
Şimdiye kadar, yapay zekanın dünya çapında, özellikle de ABD ve Fransa’da seçim sonuçlarını etkilemek için nasıl kullanıldığını muhtemelen duymuşsunuzdur. Bu sadece buzdağının görünen kısmı: özellikle üretken yapay zeka, iş dünyasında ciddi zararlara da neden olabilir. Örneğin, teknoloji, bir şirketin genel müdürünün uygunsuz yorumlar yaptığı ikna edici bir videoyu üretmek veya yanlış finansal raporlar veya ürün geri çağırmaları oluşturmak ve şirketin hisse senedi fiyatlarının düşmesine neden olmak için kullanılabilir. Bu tür aldatmalar, sosyal medya platformlarında orman yangını gibi yayılabilir ve saatler içinde bir şirketin imajına onarılamaz bir zarar verebilir.
Teknoloji aynı zamanda şüphecilerin ve komplo teorisyenlerinin ellerine de oynayabilir ve görüntülerin yapay zeka araçları tarafından üretildiğini iddia ederek gerçek olayları makul bir şekilde sorgulamalarını sağlar. Ancak, bu özel sorunun suçunu tamamen yapay zekanın kapısına atamayız. Sonuçta, aya inişin gerçekleştiğinden hala şüphe eden insanlar var ve bu, yapay zekanın ikna edici bir görüntü üretmesinden çok önce oldu. Sonuçta, bazı insanlar sadece istediklerine inanmak isterler.
Peki, bu sorunu çözmek için ne yapılabilir? İlk olarak, üretken yapay zekanın hızla gelişen yeteneklerine ayak uydurabilecek daha sağlam yapay zeka algılama araçları geliştirmemiz gerekecek. Ayrıca erken yaşlardan başlayıp yetişkinliğe kadar devam eden medya okuryazarlığı eğitimine daha fazla yatırım yapmamız gerekecek. Düşünceli düzenleme de önemli bir rol oynayacaktır. Bu, yapay zeka tarafından üretilen içeriğin açık bir şekilde etiketlenmesini zorunlu kılmayı ve kötü aktörleri yapay zekanın kötü niyetli kullanımından sorumlu tutmak için yasal çerçeveler oluşturmayı içerebilir.
9. Yapay zeka halüsinasyonlarının maliyetli sonuçları
Yapay zekanın olgusal olarak yanlış yanıtlar üretme eğilimi, yalnızca yapay zeka tarafından üretilen içeriğe güvenmeyi zorlaştırmakla kalmaz, aynı zamanda ciddi gerçek dünyada yansımaları da olabilir.
Üretken yapay zeka kullanan herkes, zaman zaman doğru olmayan tepkiler ürettiğini kesinlikle fark etmiş olacaktır. Bu olgusal yanlışlıklar tipik olarak ‘halüsinasyonlar’ olarak adlandırılır ve yapay zeka tarafından oluşturulan içeriğe güvenme yeteneğimiz için önemli bir zorluk teşkil eder. Bu endişelere rağmen, birçok şirket, üretken yapay zekayı çevreleyen yutturmacadan yararlanmaya hevesli olarak kendi sohbet robotlarını çıkarmak için acele ediyor. Ancak bu ürünleri pazara sunmak için acele ederek, genellikle halüsinasyon sorununu düzgün bir şekilde ele almıyorlar. Bazı durumlarda, sonuç oldukça eğlenceli olabilir. Ancak diğerlerinde, sonuçlar belirgin şekilde daha ciddi olabilir.
Örneğin, Ocak 2024 DPD sohbet robotu kazasını ele alalım. Bir müşteri kayıp bir paket hakkında bilgi almaya çalıştığında ve tatmin edici bir yanıt alamadığında, sohbet robotunun başarısızlıklarını ortaya çıkarmak ve bu süreçte biraz eğlenmek için yola çıktı. Dikkatli bir şekilde ifade edilmiş bir dizi istemin ardından, müşteri sonunda sohbet robotunu ona küfür etmeye, kendine ‘işe yaramaz’ demeye ve hatta kendi şirketini eleştirmeye ikna edebildi. DPD arıza için hızla özür dilerken ve sorunu çözmek için sohbet robotunu çevrimdışı hale getirirken, olay yapay zekanın uygun şekilde kısıtlanmadığında uygunsuz veya rahatsız edici içerik oluşturma eğilimini vurguladı.
Belki de en kötü şöhretli örnek, Google Bard’ın James Webb Uzay Teleskobu hakkındaki hatasıdır. Teleskopun keşifleri hakkında sorulduğunda Bard, güneş sistemimizin dışındaki ötegezegenlerin ilk fotoğraflarını çektiğini kendinden emin bir şekilde belirtti. Tek sorun? Bu aslında Webb teleskopu fırlatılmadan yaklaşık yirmi yıl önce oldu. Hata haberi yayıldıkça, yatırımcılar Google’ın yapay zeka pazarındaki itibarı ve rekabet gücü üzerindeki potansiyel etkiden endişe duymaya başladı ve bu da şirketin hisse senedi fiyatında keskin bir düşüşe yol açtı. Sonunda, hata Google’ın ana şirketi Alphabet’e şaşırtıcı bir şekilde 100 milyar ABD dolarına mal oldu – gerçekten pahalı bir halüsinasyon.
Bu riski en aza indirmek için, AI sistemlerine daha sağlam gerçek kontrol ve doğrulama mekanizmaları dahil etmemiz gerekiyor. Oluşturulan içeriği güvenilir kaynaklara karşı çapraz referans verebilir ve olası yanlışlıkları işaretleyebilirsek, halüsinasyonları zarar vermeden önce yakalamaya ve düzeltmeye yardımcı olabiliriz. Ayrıca yapay zeka tarafından oluşturulan içeriğin sınırlamaları ve belirsizlikleri konusunda daha şeffaf olmamız gerekiyor. Şirketler, sohbet robotu yanıtlarını kesin gerçek olarak sunmak yerine, her bir çıktıyla ilişkili kesinlik seviyesini belirtmek için feragatnameler veya güven puanları ekleyebilir.
8. Makineye aşık olmak
Yapay zeka giderek daha fazla insan benzeri hale geldikçe, insanlar bu yapay varlıklara insan nitelikleri atfetmeye başlayabilir ve hatta onlara duygusal olarak bağımlı hale gelebilirler. Bu uzak bir olasılık değil; sohbet robotlarıyla derin duygusal bağlar geliştiren, hatta onlara aşık olan insanlarla ilgili bir dizi hikaye gördük.
Bu ilk bakışta zararsız ve hatta eğlenceli görünse de, bazı ciddi endişelere yol açıyor. İnsanlar bu yapay ilişkilere daha fazla zaman ve duygu ayırdıkça, kendilerini gerçek insan etkileşiminden kesme riskiyle karşı karşıyadırlar. Bu izolasyonun elbette zihinsel sağlık ve refah üzerinde derin etkileri olacaktır. Sonuçta biz sosyal yaratıklarız ve gerçek insan bağlantıları psikolojik sağlığımız için çok önemlidir. Bu bağlantılar olmadan empati ve sosyal becerilerde bir düşüş göreceğiz. Birincil ilişkiniz sizi memnun etmek için programlanmış bir varlıkla olduğunda sosyal ipuçlarını okuma veya çatışmaları ele alma alıştırması yapmak zordur, değil mi?
Riskler burada bitmiyor. Bu aşırı duyarlı yapay zeka arkadaşlarına daha fazla alıştıkça, yapay zekanın yaşamın diğer alanlarındaki yeteneklerini abartmaya başlayabiliriz. Bu, vicdansız şirketlerin bizi manipüle etmek veya aldatmak için kullanabileceği yanlış bir güven duygusuna yol açabilir. Bu riskleri azaltmak için, özellikle duygusal olarak hassas alanlarda yapay zekanın kullanıcılarla nasıl etkileşim kurması gerektiğine dair net yönergeler belirlememiz gerekecek. Bu, kullanıcılara gerçek bir kişi değil, yapay zeka ile etkileşimde bulunduklarını hatırlatan zorunlu açıklamaları içerebilir. En önemlisi, insanlara, özellikle de genç nesillere, sadece dijital ilişkileri değil, gerçek dünya ilişkilerini sürdürmenin önemini öğretmemiz gerekecek.
7. Özgür irade kaybı
Görevlerimizin giderek daha fazlasını yapay zekaya devrederken, sonunda özgür irademizi de feda edebilir miyiz?
Yapay zekanın kişisel ilişkilerimizi yeniden tanımlama potansiyeli ürkütücü olsa da, yaşamlarımız üzerindeki etkisi onların çok ötesine uzanır. Yapay zeka, akış platformlarında izlediklerimizden çevrimiçi satın aldıklarımıza kadar tüm karar verme sürecimizi giderek daha fazla şekillendiriyor. Bu kişiselleştirilmiş önerilere sahip olmanın oldukça uygun olduğunu düşünseniz de, yapay zekaya aşırı güvenmenin eleştirel düşünme ve problem çözme becerilerimizin kademeli olarak erozyonuna yol açabileceğine dair gerçek bir risk vardır.
Bir düşünün: seçimlerimizi sürekli olarak algoritmalara devredersek, seçenekleri tartma, sonuçları göz önünde bulundurma ve kendimiz için bilinçli kararlar verme konusunda daha az usta olabiliriz. Zamanla, karar verme sürecimizin giderek daha fazlasını yapay zekaya dış kaynak olarak tedarik ettikçe, özgür irademizin tehlikeye girdiğini bile görebiliriz. Bugün, “Ne izlemeliyim?”, ama yarın “Hangi kariyeri sürdürmeliyim?” olabilir. Veya “Kiminle çıkmalıyım?”. Farkına varmadan, uyandığımızda hayatlarımızı kendi seçimlerimiz tarafından şekillendirilmek yerine algoritmalar tarafından senaryolanmış olarak görebiliriz.
Şimdi, bu, yapay zekanın karar verme sürecinde herhangi bir rol oynamaması gerektiği anlamına gelmez. Karmaşık veri analizi veya tıbbi teşhis gibi birçok alanda, AI’nın üstün işlem gücü ve kalıp tanıma inanılmaz derecede değerli olabilir. Önemli olan, yapay zeka destekli karar verme ve insan girdisi arasında bir denge bulmak ve riskleri azaltırken her ikisinin de güçlü yanlarından yararlanmamızı sağlamaktır.
Bu dengeyi sağlamanın bir yolu her zaman bir insanı döngüde tutmaktır. Kararları tamamen otomatikleştirmek yerine, yapay zekanın bize ihtiyaçlarımıza ve tercihlerimize göre özenle seçilmiş bir dizi seçenek sunduğu bir gelecek öngörüyoruz. Ancak nihayetinde, nihai seçim bize ait olacaktır – insan kullanıcılar.
6. Veriye dayalı ayrımcılık
Yapay zeka sistemlerini eğitmek için kullanılan veriler genellikle tüm nüfusun çeşitliliğini doğru bir şekilde yansıtamaz, bu da önyargılı veya ayrımcı sonuçlara yol açar.
Günün sonunda, yapay zeka sistemleri yalnızca beslendikleri veriler kadar iyidir. Bu veriler tüm nüfusu temsil etmiyorsa, yapay zekanın kararları, büyük ölçüde zaten marjinalleştirilmiş veya dezavantajlı olanlar pahasına, önyargılı veya ayrımcı olabilir. Bazı sürücüsüz arabaların koyu tenli yayalara çarpma olasılığının daha yüksek olduğu endişe verici keşfini düşünün. Bunun nedeni, yapay zekanın renkli insanlara karşı bir intikamı olduğu için değil, yayaların yeterince çeşitli bir veri kümesi üzerinde eğitilmediği için. Benzer şekilde, yüz tanıma algoritmalarının insanları beyaz meslektaşlarından daha sık yanlış bir şekilde suçlarla suçladığı bulunmuştur.
Ama bu sadece ırkla ilgili değil. Hollanda çocuk bakımı yardım skandalı, yapay zeka önyargısının hayatları nasıl mahvedebileceğinin bir başka ayık örneğidir. Bu durumda, Hollanda vergi dairesi tarafından çocuk bakımı yardımı taleplerinde sahtekarlığı tespit etmek için kullanılan bir algoritma, binlerce ailenin haksız suçlamasına yol açtı. Kurbanlar orantısız derecede düşük gelirli ailelerdi. Sonuç olarak, birçok aile büyük miktarlarda para ödemek zorunda kaldı, bu da bazılarını finansal olarak mahvetti ve hatta bazı durumlarda çocukların evlerinden uzaklaştırılmasına neden oldu.
Peki, bu konuda ne yapabiliriz? Her şeyden önce, tarafsız algoritmalar ve çeşitli eğitim veri kümeleri geliştirmeye büyük yatırımlar yapmamız gerekiyor. Ayrıca daha sağlam bir düzenlemeye ihtiyacımız var. Fiziksel ürünler için güvenlik standartlarımız olduğu gibi, yapay zeka sistemleri için, özellikle kolluk kuvvetleri, sağlık hizmetleri ve sosyal hizmetler gibi kritik alanlarda kullanılanlar için katı yönergelere ihtiyacımız var. Yapay zeka şirketlerinin tasarım sürecinin her aşamasına etik uzmanlarını dahil etmesi de iyi bir fikir olabilir. Birinin sürekli “Ama bu adil mi?” diye sorması Potansiyel önyargıları sisteme sokmadan önce yakalamaya yardımcı olabilir.
5. İnsan emeği için ölüm çanı
Giderek artan sayıda iş otomasyon riski altında. Ama yapay zeka tüm işlerimizi devralırsa ne olacak? O zaman geçimini nasıl kazanacağız?
Önceki bölümlerde, artık giderek daha fazla görevi AI’ya nasıl devrettiğimizi tartıştık. Bu eğilim önümüzdeki yıllarda hız kazanmaya devam ettikçe, yapay zekanın kaçınılmaz olarak insan işçilerin yerinden etmeye başlayacağına dair artan endişeler var. Tamamen ekonomik bir bakış açısıyla, yapay zeka aynı görevleri daha hızlı, daha ucuz ve genellikle daha doğru bir şekilde yerine getirebilirken şirketler neden insanları işe almaya devam etsin ki?
Bu sadece bir spekülasyon değil. Goldman Sachs’ın 2023 tarihli bir raporu, yapay zekanın dünya çapında şaşırtıcı bir şekilde 300 milyon tam zamanlı işin yerini alabileceğini tahmin ediyor. Bu eğilimin, çoğu zaten durgun ücretler ve iş güvensizliği ile mücadele eden düşük vasıflı mavi ve beyaz yakalı işçileri orantısız bir şekilde etkilemesi muhtemeldir. Yapay zeka, veri girişi, montaj hattı çalışması ve temel müşteri hizmetleri gibi rutin görevleri devraldıkça, bu çalışanlar kendilerini giderek daha fazla işsiz bulabilir, mevcut eşitsizlikleri şiddetlendirebilir ve sosyal huzursuzluğu körükleyebilir.
Paniğe başlamanın zamanı geldi mi? Pek değil, çünkü daha önce de bunları yaşadık! Matbaanın icadından otomobilin yükselişine kadar tarih, işçilerin yeni teknolojilere yanıt olarak meslek değiştirmek zorunda kaldığı örneklerle doludur. Bu geçişler kısa vadede acı verici olsa da, genellikle uzun vadede daha fazla refah ve yeniliğe yol açmıştır. Bu nedenle, yapay zeka şüphesiz birçok işi devralacak olsa da, aynı zamanda yenilerini de yaratması muhtemeldir – muhtemelen ortadan kaldırdığından daha fazla.
İşin doğası geliştikçe, eğitim sistemlerimizin uyum sağlaması ve bizi makinelerden ayıran nitelikler olan eleştirel düşünme, yaratıcılık ve duygusal zeka gibi becerilere daha fazla vurgu yapması gerekecek. İstihdam durumlarından bağımsız olarak tüm vatandaşlar için temel bir yaşam standardı sağlayacak evrensel bir temel gelir gibi daha radikal politika müdahalelerini de göz önünde bulundurmamız gerekebilir.
4. Demokrasinin sonu
Üretken yapay zeka, güç dengesini bu teknolojinin geliştirilmesine öncelik veren ülkelerin lehine eğme potansiyeline sahiptir.
Üretken yapay zeka benzeri görülmemiş bir hızda ilerlemeye devam ettikçe, bu teknolojinin küresel güç dengesi için derin etkileri olabileceği giderek daha net hale geliyor. Üretken yapay zekanın geliştirilmesine yatırım yapmayan ülkeler, yatırım yapanların gerisinde kalma riski taşıyor ve bu da potansiyel olarak ekonomik, askeri ve kültürel etkide önemli değişimlere yol açıyor. Özellikle Çin, yapay zeka araştırma ve geliştirmenin birkaç önemli alanında baskın bir güç olarak ortaya çıkmıştır. Ülke, büyük ölçüde geniş veri hazineleri, güçlü hükümet desteği ve gelişen bir teknoloji ekosistemi sayesinde yüz tanıma, doğal dil işleme ve otonom araçlar gibi alanlarda şimdiden büyük atılımlar elde etti.
Şimdi Çin, benzer bir hakimiyet seviyesine ulaşmayı hedefleyen dikkatini üretken yapay zekaya çeviriyor. Peki Çin’in üretken yapay zekada lider olması dünya için tam olarak ne anlama gelirdi? Birincisi, Çinli şirketlere çok çeşitli endüstrilerde büyük bir avantaj sağlayabilir. Ülke ayrıca teknolojiyi birden fazla dilde ilgi çekici içerikler oluşturmak için kullanabilir ve küresel anlatıları Çin çıkarlarıyla uyumlu şekillerde şekillendirmesini sağlayabilir.
Bununla birlikte, belki de en endişe verici olanı, Çin’in dijital otoriterlik modelini diğer ülkelere ihraç etmek için üretken yapay zekadaki liderliğini kullanma olasılığıdır. Çin’in yapay zeka araçlarına ve platformlarına erişim verilirse, diğer hükümetler Çin’in liderliğini takip edebilir ve bunları nüfuslarını izlemek ve kontrol etmek, muhalefeti bastırmak ve kamu söylemini şekillendirmek için kullanabilir. Bunun gizlilik, bireysel özgürlükler ve dünya çapında demokrasinin geleceği için derin etkileri olabilir.
Bu riskleri azaltmak ve üretken yapay zekanın faydalarının daha eşit bir şekilde dağıtılmasını sağlamak için, diğer ülkelerin bu alanda kendi yeteneklerini geliştirmek için proaktif adımlar atması esastır. Bu, araştırma ve geliştirmeye önemli yatırımların yanı sıra hükümet, endüstri ve akademi genelinde işbirlikçi ortaklıklar kurma çabalarını gerektirecektir. Ortak değerlere sahip ülkeler, bu tür büyük jeopolitik değişimlere karşı bir karşı ağırlık oluşturmak için kaynaklarını ve uzmanlıklarını bir araya getirerek yapay zeka gelişimi konusunda işbirliği yapmalıdır.
3. Evrim yanlış bir dönüş alır
Yapay zeka şüphesiz insan yeteneklerini sayısız şekilde artırma ve geliştirme potansiyeline sahip olsa da, insan evriminin seyrini değiştirebilecek istenmeyen sonuçlara da yol açabilir. Yapay zekaya olan artan bağımlılığımızın belirli bilişsel yeteneklerde nasıl çarpıcı bir düşüşe neden olabileceğini daha önce tartıştık. Ancak, değiştirilebilecek sadece zihinlerimiz değil – aynı şey bedenlerimize de olabilir.
Örneğin, yapay zeka sistemleri el emeği görevlerinin çoğunu devralırsa, insanlar daha hareketsiz ve fiziksel olarak daha az aktif hale gelebilir ve bu da obezite oranlarının artması, kardiyovasküler hastalık ve kas-iskelet sistemi bozuklukları gibi bir dizi sağlık sorununa yol açabilir. Bunu, beyaz yakalı masa işlerinin çoğalmasıyla bir dereceye kadar zaten gördük. Nesiller boyunca, bu değişiklikler fiziksel görünümümüzü ve yeteneklerimizi bile değiştirebilir. Örneğin, insanlar zamanlarının çoğunu ekranlarla ve sanal arayüzlerle etkileşime girerek geçirirlerse, duruşumuzda, görüşümüzde ve el becerimizde değişiklikler görebiliriz.
Biyolojik etkilerin ötesinde, yapay zekanın insan kültürü ve toplumu üzerinde de derin bir etkisi olabilir. Yapay zeka sistemleri, çevrimiçi gördüğümüz bilgileri giderek daha fazla kontrol ettikçe, kültürlerin küresel ölçekte homojenleşmesini görebiliriz. Bu kültürel düzleştirme, geleneksel olarak insan inovasyonu ve dayanıklılığının bir kaynağı olan bir çeşitlilik kaybına yol açabilir. Genellikle belirli kültürel önyargılarla geliştirilen yapay zeka sistemleri kültürel deneyimlerimizin birincil aracıları haline geldikçe yerel gelenekler, diller ve düşünme biçimleri yavaş yavaş ortadan kalkabilir.
Neyse ki, bu süreci insanlığımızı azaltmak yerine geliştiren bir yöne yönlendirmek için atabileceğimiz adımlar var. En önemlisi, insan yeteneklerini değiştirmek yerine tamamlayan yapay zeka sistemleri geliştirmemiz gerekiyor. Kültürel çeşitliliğin kaybını önlemek için, yapay zeka sistemlerinin geliştirilmesine farklı bakış açılarının ve deneyimlerin dahil edilmesine öncelik vermemiz esastır. Bu, teknoloji endüstrisinde çeşitliliği ve eşitliği teşvik etme girişimlerinin yanı sıra yapay zekanın insan deneyiminin zenginliğini ve karmaşıklığını yansıtan kültürel olarak çeşitli veri kümeleri üzerinde eğitilmesini sağlama çabalarını içerebilir.
2. Risk altındaki bir dünya
Yapay zekanın işinizi devralması fikrinin korkutucu olduğunu mu düşünüyorsunuz? Size tehlikede olanın sadece geçim kaynağınız olmadığını söyleseydik ne derdiniz? Yapay zekadaki daha fazla gelişme, hazır olmayabileceğimiz yeni güvenlik tehditlerinin ortaya çıkmasına da izin verebilir. Yapay zeka daha sofistike hale geldikçe, bilgisayar korsanları ve diğer kötü niyetli aktörler için mevcut araçlar da daha sofistike hale gelecektir. Daha önce gördüğümüz her şeyden daha hızlı, daha uyarlanabilir ve tespit edilmesi daha zor olan yapay zeka destekli siber saldırılar görmeyi bekleyebiliriz. Güvenlik önlemlerini uygulamaya kondukları kadar hızlı bir şekilde atlayarak gerçek zamanlı olarak öğrenebilen ve gelişebilen bir virüs hayal edin.
Ancak yapay zekanın yarattığı riskler siber uzayın çok ötesine uzanıyor. Örneğin, otonom silahların geliştirilmesi, savaşın geleceği hakkında ciddi soruları gündeme getiriyor. Savunucular bu tür silahların savaş kayıplarını azaltabileceğini iddia ederken, eleştirmenler yeni bir silahlanma yarışına yol açabilecekleri ve silahlı çatışma eşiğini düşürebilecekleri konusunda uyarıyorlar. Kendinize de şunu sorun: Bu sistemlerin kontrolünü kaybedersek veya yanlış ellere düşerlerse ne olur? Sonuçlar felaket olabilir.
Bu riski en aza indirmeye yönelik ilk adım, zaten insan yeteneklerinin çok ötesinde bir görev olan yapay zeka tehditlerini tespit edebilecek ve bunlara karşı koyabilecek yapay zeka destekli savunma sistemlerinin geliştirilmesine yatırım yapmaktır. Ayrıca etik yapay zeka gelişimini teşvik etmeli, şirketleri etik hususları yapay zeka destekli ürünlerine sıfırdan yerleştirmeye teşvik etmeli ve böylece kötüye kullanım risklerini azaltmalıyız. Son olarak, kritik sistemler üzerinde her zaman anlamlı insan kontrolünü sürdürmemiz gerekir – bir can alma kararı asla tamamen bir makineye devredilmemelidir.
1. İnsanlık için varoluşsal bir tehdit
İşleri biraz daha tırmandıralım. Yapay zeka daha akıllı ve sofistike hale geldikçe, insan çıkarlarıyla uyumlu olmayan hedefler ve öncelikler geliştirebilir. Bir yapay zeka sistemi insanlığı kendi varlığı veya hedefleri için bir tehdit olarak algılamaya başlarsa ne olur? Bu tehdidi etkisiz hale getirmek için adımlar atmayacağını bize kim garanti edebilir?
Tarih boyunca, daha akıllı, daha güçlü veya sadece çevrelerine daha iyi adapte olan bir avcı tarafından neslinin tükenmesine neden olan sayısız tür örneği gördük. Birçok durumda, avlanma, habitat tahribatı veya istilacı türlerin tanıtılması yoluyla tüm türleri yok eden suçlular insanların kendileri olmuştur. Şu anda ne kadar olası görünse de, aynı kaderin yapay zekanın elinde bize gelme olasılığını göz ardı edemeyiz. Bu teknolojileri nasıl geliştirdiğimize ve dağıttığımıza dikkat etmezsek, istemeden bizi ortadan kaldırılması gereken bir tehdit olarak gören süper akıllı bir yapay zeka oluşturabiliriz.
Şimdi, robot kıyameti için stoklamaya başlamadan önce, bunların aşırı senaryolar olduğunu not etmek önemlidir. Bunlar, düşünmemiz ve hazırlanmamız gereken olasılıklardır, elbette – ama bunlar kaçınılmaz değildir. Bunların gerçeğe dönüşmemesini sağlamak için, insanlara zarar vermelerini veya insan çıkarlarına aykırı hareket etmelerini önleyen yerleşik kısıtlamalara sahip yapay zeka sistemleri geliştirmemiz gerekiyor. Ayrıca, beklenmedik veya tehlikeli şekillerde hareket etmeye başlarlarsa yapay zeka sistemlerini kapatma veya yeniden yönlendirme yeteneğini korumamızı sağlayarak yapay zeka güvenliği ve kontrolü üzerine araştırmalara yatırım yapmamız gerekiyor.
Bir şeyler ters giderse, yapay zekayı kapatma yeteneğini korumamız gerekir.
Sonsöz
Bu makale boyunca, yapay zekanın işin doğasını nasıl değiştirdiğini ve potansiyel olarak birçok işi eski haline getirdiğini araştırdık. Yapay zeka odaklı karar vermenin etik sonuçları ve yapay zeka yanlılığının yarattığı zorluklarla boğuştuk. Ve yapay zekanın insan evriminin kendisini nasıl etkileyebileceğini, sadece bilişsel yeteneklerimizi değil, aynı zamanda fiziksel görünümümüzü ve kültürel normlarımızı da yeniden şekillendirebileceğini düşündük.
İyi olan şey, harekete geçmek için çok geç olmaması. Kontrol hala bizde ve bunun nasıl olacağına karar veriyoruz. Yapay zekanın gelişimini şekillendirecek miyiz yoksa bizimkini şekillendirmesine izin verecek miyiz? Bu sorunun cevabı, gelecek yüzyıllar boyunca gelişen insanlık ile üstün bir düşmanla karşılaşan sayısız başka türün yoluna giden arasındaki fark olabilir.’’
Kaynakça: https://blog.richardvanhooijdonk.com/en/the-dark-side-of-ai-10-threats-we-cant-afford-to-ignore/





