Google'ın eski CEO'sundan yapay zeka uyarısı: Teröristlerin elinde tehlikeye dönüşebilir

Eski Google CEO’su Eric Schmidt, yapay zekanın teröristler veya kötü niyetli devletler tarafından kullanılarak halka tehdit oluşturabileceğini söyledi. Schmidt, yapay zekanın biyolojik silah üretimi gibi alanlarda kötüye kullanılabileceğini vurguladı.

Schmidt, "Yapay zeka, yanlış kişilerin eline geçtiğinde, kötü niyetli birinin biyolojik silah geliştirerek kitlesel zarar vermesi mümkün olabilir." dedi. Bu riskin önüne geçilmesi için devletlerin daha sıkı denetim mekanizmaları kurması gerektiğini belirtti.

DEVLETLER VE ŞİRKETLER ARASINDA DENGE KURULMALI
Schmidt, yapay zeka teknolojisinin özel şirketler tarafından geliştirildiğini ancak devletlerin de denetleyici bir rol üstlenmesi gerektiğini söyledi. Ancak aşırı düzenlemelerin inovasyonu engelleyebileceğine de dikkat çekti.

ABD VE AVRUPA ARASINDAKİ YAPAY ZEKA ANLAŞMAZLIĞI
Eski Google CEO’su, ABD ve Birleşik Krallık’ın Avrupa’nın sıkı yapay zeka düzenlemelerine karşı çıktığını belirtti. Yapay zekayı "elektrikten bu yana en önemli devrim" olarak nitelendiren Schmidt, aşırı regülasyonların teknolojinin gelişimini baltalayabileceğini ifade etti.

ABD Başkan Yardımcısı JD Vance de, "Yeni bir sektörü tam gelişme aşamasında aşırı düzenlemelerle baltalayamayız" diyerek bu görüşe destek verdi.

AKILLI TELEFONLAR VE ÇOCUKLAR ÜZERİNDEKİ ETKİLER
Schmidt, yalnızca yapay zekanın değil, akıllı telefonların da toplum üzerindeki olumsuz etkileri olduğunu vurguladı. Özellikle çocukların dijital dünyada korunması gerektiğini belirtti.

Schmidt, sosyal medya platformlarının 16 yaş altı çocuklar için yasaklanmasını desteklediğini belirterek, "Neden en değerli varlıklarımız üzerinde kontrolsüz bir deneye izin verelim?" dedi.

Avustralya, bu konuda öncü adımlardan birini atarak 2024 yılında 16 yaş altına sosyal medya yasağı getiren bir yasa tasarısını kabul etti. Başbakan Anthony Albanese, bu düzenlemenin "çocukların zarar görmesini engellemek için" yapıldığını açıkladı.

Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.