Yapay zekayı güvenli kılmak neden zor?

Zoe Kleinman ve Philippa Wain | BBC Teknoloji Editörleri

Getty Images

Yapay zeka uzmanları genellikle iki kampa ayrılır: Bunun bizim hayatımızı devasa boyutlarda iyileştireceğini düşünenler ve bizi yok edeceğini düşünenler. Ve bu yüzden bu hafta Avrupa Parlamentosu’nda yapay zekanın nasıl düzenlenmesi gerektiği üzerine yapılacak oturum büyük önem taşıyor.

Peki yapay zeka nasıl daha güvenli kılınabilir? Bunun önündeki beş zorluğu inceledik.

1. Yapay zekanın ne olduğunda uzlaşmak

Avrupa Parlamentosu’nun yapay zekanın tanımını yapması iki yılını aldı: “İnsanlar tarafından verilen görevleri yerine getirmek için içerik, tahmin, tavsiye veya kararlar gibi çıktılar üreterek etkileştiği çevreleri dönüştürebilen yazılımlar.”

Bu hafta oylanacak Yapay Zeka Yasası, türünün ilki. Yasa, şirketlerin gönüllü iş birliğinin ötesine geçerek, uyulması gereken kurallar getirecek.

2. Küresel bir anlaşmaya varmak

Eski İngiltere Yapay Zeka Ofisi Başkanı Sana Kharaghani, teknolojinin sınır tanımadığını vurguluyor.

BBC’ye konuşan Kharaghani “Bu konuda uluslararası iş birliğine ihtiyacımız var. Bunun zor olacağını biliyorum” diyor ve ekliyor:

“Bu ulusal bir mesele değil. Bu tür teknolojiler tek bir ülkenin sınırları içinde kalmıyor.”

Fakat Birleşmiş Milletler türünden bir uluslararası yapay zeka düzenleme kurumu yaratmak için ortada hiçbir plan yok.

Dahası bu konuda farklı ülkelerin farklı planları var:

Avrupa Birliği, yapay zeka konusunda en sert düzenlemeleri öneriyor. Buna göre yapay zeka ürünleri, etkileri bakımından farklı seviyelerde ele alınacak; örneğin istenmeyen e-posta filtrelemek için kullanılan yapay zeka daha az düzenlemeye tabi olurken, hastalara kanser teşhisi koymayı kolaylaştıracak yapay zekalar daha fazla denetlenecek.

İngiltere yapay zeka düzenlemelerini mevcut kurumlara eklemlemeyi tercih edenlerden. Bu yöntemde örneğin kendisine yapay zekanın ayrımcılık yaptığını düşünen bir kişi, yeni bir kurum yerine ülkede halihazırda ayrımcılığı denetleyen Eşitlikler Komisyonu’na başvurabilecek.

ABD’de ise yalnızca şirketlerin gönüllü bir şekilde dahil olduğu programlar var. Yakın süre önce yapay zeka üzerine yapılan bir oturumda siyasetçiler, bu alandaki düzenlemelerin yetersiz kaldığına dair endişelerini dillendirdi.

Çin de şirketlerin yapay zeka kullandıkları yerlerde ve uygulamalarda bildirimde bulunmasını zorunlu kılmayı düşünüyor.

3. Kamuoyuna güven vermek

IBM’in Avrupa Birliği ile ilişikilerinin başında bulunan Jean-Marc Leclerc “İnsanların bir şeyi kullanması için önce güvenmesi lazım” diyor.

Yapay zekanın insanların hayatını inanılmaz ölçüde iyileştirebileceği alanlar var. Halihazırda antibiyotikler keşfetmek, felçli insanları yürütmek ve iklim değişikliği, pandemi gibi küresel sorunlara çözüm bulmak için kullanılabiliyor.

Peki ya iş başvurularını değerlendirmek veya birinin suça meyilli olup olmadığını ölçmek için kullanılırsa?

Avrupa Parlamentosu her bir yapay zeka ürününün riskleri hakkında kamuoyunun bilgilendirilmesini planlıyor.

Bu kuralı ihlal edenler 30 milyon euro veya küresel cirolarının yüzde 6’sı miktarında cezaya maruz kalabilir.

Ama yapay zeka geliştiricileri, ürünlerinin nasıl kullanılabileceğini önceden tahmin edebilir mi?

Reuters

4. Kuralları kimin yazacağına karar vermek

Bugüne kadar yapay zekanın düzenlenmesi işi genellikle onu geliştirenlerin insafına bırakılmıştı.

ChatGPT’yi yaratan OpenAI’ın yöneticisi Sam Altman’a göre büyük şirketler, potansiyel riskleri azaltmak için bu alanda düzenlemeler yapılması gerektiğini kabul ediyor.

Peki bu şirketler düzenlemeleri yapma sürecine fazlasıyla dahil olurlarsa, insanların çıkarlarını kendi kârlarının önüne koyabilecekler mi?

Şu anda bu düzenlemeleri hazırlamakta olan siyasetçilerle içli dışlı olmak istediklerini tahmin edebilirsiniz.

Son dakika biletleri satan Lastminute.com’un kurucusu Barones Lane-Fox, bu alanda düzenleme yaparken şirketler dışındaki aktörlerin de dinlenmesi gerektiğini düşünüyor:

“Sivil toplumu, akademiyi ve bu dönüşümden etkilenen kişileri de sürece dahil etmemiz lazım.”

5. Hızlı hareket edebilmek

ChatGPT’ye milyarlarca dolar yatıran Microsoft “angaryayı ortadan kaldırmak istediklerini” söylüyor.

ChatGPT insan elinden çıkmış gibi gözüken metinler üretebiliyor fakat OpenAI’dan Sam Altman yine de bunun “bir kişi değil bir araç” olduğunu vurguluyor.

Sohbet robotlarının ana amacı işçileri daha verimli kılmak.

Bazı sektörlerde yapay zekanın yeni iş imkanları yaratma ve müthiş bir asistan olma kapasitesi var. Ama bazı sektörlerde de iş kaybına yol açıyor.

İngiliz telekomünikasyon devi BT, 10 bin çalışanının işini yapay zekaya yaptıracağını açıkladı.

Altı ay önce piyasaya çıkan ChatGPT ise günümüzde makaleler yazabiliyor, insanların tatil planlarını hazırlayabiliyor ve profesyonel sınavları geçebiliyor. Bu tür dil bazlı modeller günümüzde inanılmaz bir hızla gelişiyor.

Avrupa Birliği’nin Yapay Zeka Yasası’nın 2025’e kadar yürürlüğe girmesi bekleniyor. AB Teknoloji Komiseri Margrethe Vestager’e göre bu çok geç.

Vestager bu yüzden ABD ile birlikte, şirketlerin o zamana kadar gönüllü olarak kullanabilecekleri bir kod hazırlıyor. Bu kod birkaç hafta içinde tamamlanabilir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir