comScore

Gaspçı, tecavüzcü katil robot kabusu

Burak Kara / bkara@gazetevatan.com |  05 Mart 2017 Pazar - 2:30 | Son Güncelleme : 05 03 2017 - 2:30

Robotların aramıza karışması hem korkuları hem de etik tartışmaları hayatımıza taşıdı. Kimileri bunların hacklenip ölüm makinelerine dönüştüreceğini söylüyor, Stephan Hawking ‘100 yıl içinde robotlar dünyayı istila edecek’ diyor, Isaac Asimov’un 1960’lı yıllarda yazdığı “üç robot yasası“ AB’de kanunlaşıyor.


Dünya önemli bir çağ değişiminin eşiğinde. Robot devrimi başladı, ülkeler endüstri 4.0’a geçiyor. Artık her alanda robotlar yaşamımıza giriyor. Adeta bir insan gibi yürüyen, konuşan, hareket eden düşünen robotların aramıza karışması hem korkuları hem de etik tartışmaları hayatımıza taşıdı. Kimileri bunların hacklenip ölüm makinelerine dönüştüreceğini söylüyor, Stephan Hawking 100 yıl içinde robotlar dünyayı istila edecek diyor, Isaac Asimov’un 1960’lı yıllarda yazdığı “üç robot yasası“ AB’de kanunlaşıyor.

Ve Handle sahnede!

Geçtiğimiz haftaya Boston Dynamics’in yeni ürettiği Robot Handle damgasını vurdu. Öyle ki Handle bugüne kadar gördüğümüz “klasik robotlardan” birkaç gömlek üstün. İki ayak üzerinde durabilen ve birçok beceriye sahip olan Handle, ihtiyaç anında dört ayaklı bir şekilde tasarlandı. Son derece dengeli ve robotik kolları sayesinde, duvarın üzerinden atlamak gibi zorlu eylemleri de başarabilen Handle, çok ağır yükler taşırken bile dengesini kaybetmiyor. Fabrika ortamlarına uyum sağlayabilen Handle robot olmanın ötesine geçiyor.

Handle örneğindeki gibi gelişmeler günlük hayatımızı ele geçiren robot teknolojisinin ve otomasyonun istenmeyen sonuçlarını göreceğimiz bir gelecek de yaratabilir mi? Son dönemde alevlenen yapay zekâ tartışmaları bilim insanlarına insan-robot ilişkilerini sorgulatmaya başladı. Aralarında astrofizikçi  Stephen Hawking, Apple’ın kurucusu Steve Wozniak ve SpaceX’in yöneticisi Elon Musk’ın da bulunduğu bine yakın bilim insanı yapay zekanın potansiyeline dikkat çeken bir mektup kaleme aldı ve dünyaya ‘katil robot’ olarak bilinen ‘otonom silah sistemlerinin’ ölümcül etkileri konusunda, “Büyük bir askeri gücün otonom silahları geliştirmeye başlaması, korkunç sonuçlara yol açabilir” mesajıyla uyarıda bulundu.

Robotlara ‘kendini imha’ tuşu

Rdbotların insanlığa gelecekte tehdit olmaması için Avrupa Parlamentosu (AP) robotların insanlarla olan ilişkilerini kurallara bağlamayı hedefleyen tarihi bir karar tasarısını onayladı. AP önümüzdeki yıllarda, yapay zekanın insan zekasını geçebileceği öngörüsünde de bulunuyor. Eğer iyi hazırlanılmaz ise bu durumun, “insanın bir tür olarak dünya üzerindeki geleceğini dahi tehlikeye atabileceği” yorumu yer alıyor. Robotlara “elektronik insan” kimliğiyle yasal statü verilmesi tartışmaya açılıyor. Robot tasarımcılarına, robotlara, gerekli hallerde kullanılmak üzere “kendini imha tuşu” eklenmesi önerisinde bulunuluyor. Piyasaya sürülecek robotların, tıpkı bir ilacın onaylanması sürecinde olduğu gibi, bir etik komite tarafından onaylanmasının gerekebileceği öngörülüyor.

Yapay zeka insan ırkını bitirir

Stephen Hawking BBC’ye verdiği bir mülakatta, “Tam anlamıyla gelişmiş bir yapay zekâ, insan ırkının sonunu getirebilir” tezini savunup, “Düşünen makineler yaratma çabamız, kendi varoluşumuza bir tehdittir. Yapay zekâ, kendisini geliştirmeyi sürdürebilir ve yeniden biçimlendirebilir. Son derece yavaş bir biyolojik evrimle sınırlı olan insanlar, bu tür bir güçle yarışamaz” demişti. Hawking’in bu endişesini Japon telekomünikasyon ve internet şirketi Softbank’ın CEO’su Masayoshi Son şöyle haklı çıkardı. Son, akıllı robotların sayısının gelecek 30 yıl içinde insan nüfusunu geçeceğini, robotların insanlardan “daha akıllı“ olacağını söyledi.

Hacklenen robot korkusu

Bugünlerde tartışılan konulardan biri de ev robotlarınını hacklenme riski. Siber güvenlik şirketi IOActive yöneticisi Cesar Cerrudo, “Robot teknolojisi hızla ilerliyor, ama bu teknolojiyle birlikte hackerler da ‘robotları nasıl hackleriz’ üzerine çalışıyor. Hacklenen bir robot her şeyi yapabilir. Evdeki evcil hayvanları öldürebilir, sabotajlar yapabilir, kameraları ve mikrofonları yardımıyla ailenin her hareketini bir casus gibi gözetleyebilir, çocuklara zarar verir kısacası bir ölüm makinesine dönüşür” diyor.

Yapay zekanın agresifliği

Google’ın yapay zekâ birimi DeepMind’ın yaptığı bir deneyde yapay zekanın agresifleştiği gözlemliyor. Genel anlamda insan beyni model alınarak tasarlanan bir grup bilgisayar sistemi, elma toplama oyununda elmalar fazlayken barışçıl davranış gösterdi ancak elmalar azalınca bilgisayar ağları, birbirlerini dondurarak daha fazla elma toplamaya çalıştı. Araştırma yapay zekâ seviyesi yüksek bilgisayarların daha saldırgan davranış gösterdiği gözlendi ve İngiliz fizikçi Stephen Hawking’in yapay zekânın bir gün dünyanın kontrolünü alacağı yönündeki öngörüsünü güçlendirdi.

Asimov kuralları yönetecek

Peki bir gün ‘Robotlar bilinç kazanırsa’ ne olur? İngiliz Standartlar Enstitüsü, gelecekteki robot davranışlarına yön vermek için bir dizi kural belirledi. Robotik Profesörü Alan Winfield, “Asimov’un kurallarına göre biraz daha kapsamlı. Tasarı risklere karşı alınacak önlemleri açıklıyor” diyor. İngilizlerin tasarısı, Asimov’un 60’lı yıllarda oluşturduğu 3 kuralı öneriyor.  “İnsanlara zarar verme. Komutlara uy. Kendini koru” Asimov, üç robot yasasına ileriki yıllarda “Bir robot insanlığa zarar veremez ya da zarar görmesine seyirci kalamaz” diyerek ek yapmıştı.

Çocuklar gibi eğitmeliyiz

Londra Kings College’den Robotik uzmanı Dr. Daniel Glaser robotları kontrol etmenin ilk kuralının onlara etik  ve ahlak kurallarına öğretmek olduğunu şöyle savunuyor, “Sinirbilimcilerin bakış açısına göre, robotlar insan gelişiminden daha fazla şey öğrenmeliler. Örneğin biz ebeveynler cebirden önce çocuklara ahlak öğretiriz. Sosyal ortamda doğru davranmayı öğrendiklerini görüce, onların dil becerilerini geliştirir ve daha karmaşık mantıkları öğretiriz. İşte robotlara yaklaşımımızın da bu şekilde gerçekleşmesi gerekiyor. En sofistike işlerden birini yapan bomba imha köpeğine bile önce oturması öğretilir” diyor .

Yorum Yazın
Gönder
Yorumlar
    Bu habere henüz yorum yapılmamıştır, ilk yapan siz olun!...