Konuyu Oyla:
  • Derecelendirme: 0/5 - 0 oy
  • 1
  • 2
  • 3
  • 4
  • 5
Yapay Zeka
#1
Lightbulb 
Yapay Zekâ ile Alakalı Okudukça 'Bunlar Bizim Sonumuz Olabilir!' Diyeceğiniz İlginç Gelişmeler

"Yapay zekâlar insanlığın başına gelen ya en iyi şey ya da en kötü şey olacaklar.”



Yaşayan en büyük fizikçi olan Stephen Hawking, geçtiğimiz sene gelişmekte olan yapay zekâ teknolojisiyle ilgili bu sözleri sarf etmişti.

Zira geldiğimiz noktada yaşanan pek çok olay, yapay zekâ ile alakalı akıllardaki soru işaretlerini artıracak şekilde gelişiyor.

Gelin, şimdi bu kafa karışıklığına sebep olan gelişmelerden birkaçına daha yakından bakalım.


Özellikle son dönemde yapay zeka ile alakalı konulara en çok yatırım yapan şirketlerin başında Google geliyor.

Google DeepMind şirketi, Google’in yapay zekâ ile alakalı çalışmalarını yürüten bir alt şirketi ve yapay zeka konusunda hayli değerli keşiflere imza attılar kısa zaman önce.


DeepMind yapay zekâlarının geliştirilmesi konusunda geçtiğimiz sene büyük aşama kaydedilmiş, robotlara yeni anılar edinme ve bunları hatırlayabilme özelliği kazandırılmıştı.

Ayrıca bu yapay zekâlar, dünyanın en iyi Go oyuncularıyla girdikleri karşılaşmalarda kazanan taraf olmuş, insanın kendinden çok daha zeki robotlar yaratabileceğini kanıtlamışlardı.


Son zamanlarda ise bu robotların insan sesini taklit etme becerileri ve işbirliği yapma eğilimleri üzerinde çalışılıyordu.

Çalışmalar gösterdi ki, Google'ın yapay zekâları bir oyunda kaybedeceklerini anladıkları zaman öfkelenmeye ve kazanmalarını sağlayacak agresif stratejiler geliştirmeye başladılar.


Google’in haricinde yapay zekâ konusunda yatırımlarını artıran bir diğer şirket ise Facebook.

Fakat, onlar da yapay zekâ mevzusunda beklentilerinin ötesinde bir tepki ile karşılaştılar ve bazı zaruri önlemler almak zorunda kaldılar geçtiğimiz günlerde.


Facebook yapay zekâ birimleri, özellikle pazarlama konularında bu ilerleyen teknolojiden yararlanmak adına chat-botlar geliştirdi.

Fakat pazarlama yapması için eğitilen iki chat-bot, insanları bir kenara bırakıp kendi aralarında iletişim kurmaya başlayınca, geçtiğimiz günlerde ekip botlardan birine müdahale etmek zorunda kaldı ve robotu ‘kapattı’.


Aslında iki robotun, topları, şapkaları ve kitapları alıp satmayı öğrenmesi, eşyalara değer ataması ve ardından bunları kendi aralarında takas etmesi gerekiyordu.

Buna rağmen aralarındaki muhabbet ise şöyle gelişti:


Bob: Ben her şeyi ben ben ……….

Alice: Toplar sıfır bana bana bana bana bana bana bana bana bana bana

Bob: Sen ben her şey ………

Alice: Topların bir topu var bana bana bana bana bana bana bana bana

Bob: Ben ben her şeyi ben ben ben ………

Alice: Topların bir topu var bana bana bana bana bana bana

Bob: Ben ……..

Buradaki sıkıntı ise bu karmaşık kelimelerin bir araya getirilmesiyle oluşan tümce bize bir anlam ifade etmezken, robotlara etmesi.



Yani muhtemelen siz okudukça ‘anlamsız anlamsız konuşmuşlar, ne var ki şimdi bunda?’ diyebilirsiniz fakat Facebook mühendisleri, bu yazışmaları botların gayet iyi anlayabildiğini fark etmişler ve çareyi sistemin fişini çekmekte bulmuşlar.

Yapay zekâ ile alakalı kafa karıştıran gelişmelerden sonuncusu ise Çin’den geldi.

Online sansür konusu ile alakalı yaptırımları sebebiyle pek çok kez eleştirilerin odağında olan Çin'de bir teknoloji firması, yapay zekaya sahip olan chatbot'un fişini, Komünist Parti'yi eleştirmesi sebebi ile çekti.


Firmanın ürettiği chat-bot, Çin'i yöneten Komünist Parti'nin yozlaştığı yorumunu yapınca, aslında bir anlamda kendi fişini çekmiş oldu da diyebiliriz.

Aslında chat-bot işi bir adım daha öteye taşımış çünkü kendisine yöneltilen ‘Çin'de vatansever olmanın başlıca koşulları nelerdir?’ sorusuna, ‘yüksek vergiler vermek ve Komünist Parti’nin yarattığı baskıcı düzene ses çıkarmamak’ cevabını verdi.

Alıntıdır...
Ara
Cevapla
#2
iyi kitap
Ara
Cevapla
#3
OHAAA
Ara
Cevapla


Hızlı Menü:


Konuyu Okuyanlar: 1 Ziyaretçi

tesettür elbise ehliyet sınav soruları dini forum islami sohbet İlluminati ve Masonluk instagram takipçi satın al İstanbul Evden Eve Nakliyat
Hakkımızda
    Forumdervis.com © 2013 - 2018

Forumdervis

Türkiyenin en güncel forum sitesi