OpenAI'nin liderleri, "süper zeka" ve yapay zeka sistemlerinin düzenlenmesi çağrısında bulunarak, teknolojinin oluşturduğu "varoluşsal riski" azaltmaya yardımcı olacağını öne sürüyorlar.
Şirketin web sitesinde bu hafta yayınlanan bir açıklamada, kurucu ortaklar Greg Brockman ve Ilya Sutskever ile CEO Sam Altman, uluslararası bir düzenleyicinin eninde sonunda "sistemleri denetlemek, denetimler talep etmek, güvenlik standartlarına uygunluğu test etmek ve dağıtım derecelerine ve güvenlik seviyelerine kısıtlamalar getirmek" için gerekli olacağını savundu.
"RİSKİ YÖNETMEK ZORUNDAYIZ"
OpenAI ekibi, "önümüzdeki on yıl içinde yapay zeka sistemlerinin çoğu alanda uzman beceri düzeyini aşacağı ve günümüzün en büyük şirketlerinden biri kadar üretken faaliyet yürüteceği düşünülebilir.
Hem potansiyel artıları hem de eksileri açısından süper zeka, insanlığın geçmişte mücadele etmek zorunda kaldığı diğer teknolojilerden daha güçlü olacaktır. Çok daha müreffeh bir geleceğe sahip olabiliriz; ancak oraya ulaşmak için riski yönetmek zorundayız."
Açıklama, Altman'ın geçen hafta Kongre'de yaptığı ve ABD merkezli şirketin CEO'sunun da ayrı bir düzenleyici kuruma duyulan ihtiyacı ifade ettiği yorumları yineledi.
ELEŞTİRMENLER LİDERLERİN ÇAĞIRISINA GÜVENİLMEMESİ KONUSUNDA UYARDI
Eleştirmenler, teknoloji endüstrisinde kısıtlama olmaksızın gelişmeye devam ederek kâr elde eden liderlerin düzenleme çağrılarına güvenilmemesi konusunda uyarıda bulundular.
Bazıları tarafından, OpenAI'nin iş kararlarının bu güvenlik uyarılarıyla çeliştiğini söylüyor. Çünkü hızlı bir şekilde piyasaya sürülmeleri bir yapay zeka silahlanma yarışı oluşturduğunu ve Google'ın ana şirketi Alphabet gibi şirketlere, politika yapıcılar hala risklerle boğuşurken ürünleri piyasaya sürmeleri için baskı yaptığı hatırlatıldı.