OpenAI kurallarını değiştirdi: Yapay zeka orduda kullanılabilir

admin

Uzmanlar daha önce, herhangi bir insan müdahalesi olmadan öldürebilen “slaughterbots” (katliam ropotu) yüzünden yapay zekanın dünya çapındaki çatışmaları tırmandırabileceği yönündeki korkularını dile getirmişti.

Geçen hafta OpenAI şirketin “silah geliştirme, askeriye ve savaş dahil olmak üzere yüksek fiziksel zarar riski taşıyan faaliyetler” için modellerin kullanılmasına izin vermeyeceğini belirten yasağı sessizce kaldırdı.

OpenAI Sözcüsü “Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, gözlem yapmak, başkalarına zarar vermek veya mülkleri yok etmek için kullanılmasına izin vermiyor. Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları var.” dedi.

Yararlı kullanım durumlarında önceki politika kapsamında “askeri” kullanıma izin verilip verilmeyeceğinin açık olmadığını söyleyen OpenAI çalışanı, politikanın güncelleme amacının, netlik ve bu tartışmaları yapabilme olanağını sağlamak olduğunu belirtti.

Geçen yıl aralarında ABD ve Çin’in de bulunduğu 60 ülke, yapay zekanın (AI) askeri nedenlerle kullanımını sınırlamak için “harekete geçme çağrısı” imzalamıştı.

Yapay zekanın “Büyük Teknoloji” kuruluşları tarafından askeri amaçlarla kullanılması daha önce tartışmalara neden olmuştu.

2018’de binlerce Google çalışanı, şirketin yapay zeka araçlarının drone gözetim görüntülerini analiz etmek için kullanılmasını öngören Pentagon sözleşmesini (Proje Maven) protesto etmişti.

Microsoft çalışanları da askerlere artırılmış gerçeklik başlıkları sağlanmasına yönelik 480 milyon dolarlık bir sözleşmeyi protesto etmişti.

2017’de Elon Musk’un da aralarında bulunduğu teknoloji liderleri BM’ye, kimyasal silahları ve insanları kör etmek için üretilen lazer silahların yasaklanması çağrısında bulundu.

Otonom silahların “savaşta üçüncü bir devrim”e yol açabileceği uyarısında bulundu: ilk ikisi barut ve nükleer silahlardı.

Uzmanlar, tamamen otonom silahlarla dolu “Pandora’nın kutusu” bir kez açılırsa onu tekrar kapatmanın imkansız olabileceği konusunda uyarıyor.

YAPAY ZEKA, HEDEFLERİ SEÇİP ÖLDÜRMEK İÇİN YAPILMIŞ İHA’LARI KONTROL EDEBİLİR Mİ?

Eski MI6 ajanı ve yazar Carlton King, yakın gelecekte yapay zekanın pilotsuz saldırı uçaklarını kontrol edecebileceğini söylüyor.

Saldırı uçaklarına pilotluk etmek için makine kullanmayı öğrenmenin avantajları askeri liderler için oldukça önemli olacaktır.

King “Bağımsız bir robota makine öğrenimi vermeye başladığınız anda, onun kontrolünü kaybetmeye başlarsınız. Bir süre sonra bırakın her şeyi robot yapsın demek cazip gelebilir.” dedi.

İnsansız hava araçlarının ABD ve İngiltere’de pilotlar tarafından uçurulduğunu, ancak askeri liderlerin insanı denklemden çıkarma eğiliminde olabileceğini belirten King, “Halihazırda olmasa bile, tepkileri yeterince hızlı olmayacağı için yerdeki pilotu ortadan kaldırmaya ve bunu tepkileri çok daha hızlı olan, ateş etme ya da etmeme kararı verebilen bir yapay zekanın ellerine bırakmaya yönelik bir hareket olacağı açıktır.” diye konuştu.

Yorum yapın