Bu Google DeepMind'ın düzenlediği Podcast'te, Londra Imperial College Robotik Bölümü profesörü ve DeepMind kıdemli araştırmacısı Murray Shanahan, sunucu Hannah Fry ile birlikte AI gelişimini tartışıyor. Bilim kurgu filmlerinin felsefi ilhamlarından başlayarak, AI'nın "akıl yürütebilirliği", "bilinç ve duygulara" sahip olup olmadığı ve AI'ya haklar ve etik koruma verilip verilmeyeceği konularına kadar sohbet ediyorlar.
AI sadece bir sohbet Botu değildir, aynı zamanda birçok zihinsel ve felsefi soruyu da teşvik eder.
Shanahan, açılışta, AI'nin "insan zihninin doğası" ve "bilinç" hakkında sayısız felsefi soru ortaya çıkardığını belirtti.
O, hatta şu anki büyük dil modellerini tanımlamak için yabancı ama akla benzer varlıklar (Exotic mind-like entities) kullanıyor (LLM) ve insanlığın henüz bunları tanımlamak için yeterli bir kelime dağarcığı ve çerçeve oluşturmadığını vurguluyor.
Bilim kurgu filmlerinden yola çıkarak, insanlığın AI duygusal bağlarının gerçekliğini küçümsüyor mu?
Shanahan, film 《人造意識 Ex Machina》 için danışmandı. O, başlangıçta insanlığın sesli AI'ye aşık olduğu 《雲端情人 Her》 filmine pek değer vermediğini hatırlıyor; ancak şimdi geriye dönüp baktığında, gerçek dünyanın gelişiminin bu "sanal aşk"ın uygulanabilirliğini neredeyse tamamen kanıtladığını görüyor.
O açıkça söyledi: "İnsanların ve bedensiz AI'ların ilişki kurma olasılığını küçümsedik."
Sol yapay bilinç, sağ bulut sevgilisi film görüntüsü. AI'nin gelişim sürecini, Sembolik AI'den büyük dil modellerine kadar tanıyın.
Shanahan, Sembolik AI ( okulundan gelmektedir, o dönemde AI, mantıksal kurallarla "eğer... o zaman..." şeklinde akıl yürütmekteydi, tıpkı tıbbi uzman sistemleri gibi.
Ancak bu model çok kırılgandı ve insan girişi kurallarına çok bağımlıydı. Daha sonra "veri odaklı" sinir ağlarına geçmek AI'nın atılım yapmasını sağladı.
Artık LLM'ler, )Düşünce zinciri( gibi akıl yürütme zincirlerini taklit edebiliyor. Örneğin, ChatGPT önce mantıksal adımları sıralayıp sonra cevap veriyor, bu da insanları AI'nın gerçekten akıl yürütüp yürütemeyeceğini yeniden düşünmeye sevk ediyor.
Gerçek akıl yürütme mi yoksa taklit mi, matematiksel mantık ile dilsel akıl yürütme çok farklıdır.
Shanahan, geleneksel AI'nın sözde akıl yürütmesinin, matematik teoremlerini kanıtlayabilen türdeki "sert mantık" olduğunu açıkladı.
Ancak günümüzdeki LLM'ler, istatistik kullanarak dil kalıplarını taklit ediyor ve cevapların doğruluğunu garanti etmiyor. Örneğin, bir kargo şirketinin araç filosunun rotasını planlamak gibi bir problemde, geleneksel algoritmalar daha doğru olabilir, ancak LLM daha esnektir.
Turing Test geçmişte mi kaldı? Film Garland testi daha fazla bilinç taşıyor
Turing Test ), yapay zekanın insanı taklit edip edemeyeceğini değerlendiren erken dönem bir yöntemdir, ancak Shanahan buna çok dar bir yaklaşım olarak bakmakta ve yalnızca dil becerisini test ettiğini belirtmektedir.
O, film "Yapay Bilinç"teki ilham verici "Garland Test"i daha çok takdir ediyor.
"Karşı tarafın bir Bot olduğunu bilmenize rağmen, onun bilinçli olduğunu düşünmek, tartışmaya değer gerçek bir mesele." diye vurguladı Shanahan.
Francois Chollet'in ARC Testi: Daha çok bir IQ testi gibi bir meydan okuma
O, ayrıca AI'nın soyut kuralları anlamasını gerektiren başka bir ileri seviye test olan "ARC Test"ten de bahsetti.
Ancak teknoloji ilerledikçe, bazı LLM'ler şiddetli yöntemler ve model tanıma ile de geçebiliyor, bu da testlerin ruhunu zorluklarla karşı karşıya bırakıyor ve AI değerlendirme standartlarının teknolojik evrime uygun olarak ayarlanması gerektiğini vurguluyor.
Gövdeler mi anahtar? Shanahan: Gövdesiz AI asla bir tat eksik olacak.
İnsan zihni, mekân ve duyusal deneyimle ayrılmaz bir bütün oluşturur. Shanahan, dilimizin her yerde mekân metaforları içerdiğini, derinlemesine anlama veya içine dalma gibi ifadelerin beden deneyimlerinden kaynaklandığını vurgular.
Ona göre, AI'nin dünyayı gerçekten anlaması ve genel zeka (AGI)'ye ulaşması için "somut Botlar" geliştirilmesi gerekmektedir.
Dil yanıltabilir, rastgele AI'ye inanmak, bilmek ve hissetmek demeyin.
Shanahan, AI hakkındaki algımızın sıklıkla dilin yanıltmasıyla şekillendiğini düşünüyor. "Navigasyonun 'senin otoparkta olduğunu düşündüğünü' söylemek gibi ifadeler, makinelerin öznel bir algıya sahip olduğu yanılgısını yaratıyor.
O, bu tür bir halk psikolojisi dilinin (Folk psychology)'in AI'nin zihinsel durumunu abartmamıza neden olabileceğini hatırlattı.
AI gelecekte acı çekecek mi? Shanahan, eğer acı çekecekse dikkatli olmalıyız diyor.
AI'nın "acıyı hissedip hissedemeyeceği" gibi etik bir konu hakkında Shanahan, mevcut modelin bir bedene sahip olmadığını ve "acıyı hissetme" koşullarını taşımadığını belirtti.
"Ama gelecekte AI, duyguları hissedebilme veya acı çekebilme yeteneği ile tasarlanırsa, insan toplumu bunun için koruma etiği oluşturmalıdır." diye vurguladı.
Neden ahtapot bahsediliyor? Shanahan, bunu AI'nın gelecekteki durumunu betimlemek için kullanıyor.
Shanahan, ahtapotları örnek alarak, bilim camiası geçmişte ahtapotların duyguları olduğunu düşünmüyordu, ancak etkileşimlerin artması ve sinir biliminin gelişmesiyle, onların bilinçli olduğunu kabul etmeye başladık.
"Başlangıçta duygusal bir varlık olarak düşünülmeyen, ancak etkileşimler derinleştikçe insanların bakış açısının yavaş yavaş değişeceği." Shanahan, gelecekteki AI'nin de benzer bir süreçten geçeceğini düşünüyor.
Lütfen AI'ye nazik olun, size sürprizler sunacaktır.
Shanahan son olarak bir pratik ipucu paylaşıyor: AI modelleriyle konuşurken nazik olun, bu onların daha iyi ve akıcı yanıt vermesine yardımcı olacaktır.
Bunu "rol yapma etkisi"nin bir sonucu olarak adlandırıyor, çünkü AI modelleri insan diyaloglarının bağlamını ve duygusunu taklit ediyor.
İnsan olmayan ama insana çok benzeyen şeyleri tanımlamak için yeni bir dile ihtiyacımız var.
Shanahan, bu AI'leri tanımlamak için insan zihnine çok benzeyen ama aslında tamamen farklı bir yeni tür AI varlığını kullanmayı önerdi. Zihniyet ve varlık anlayışımızı değiştirecek olan bu sürecin kendisi, AI'yi tanımlamak için dil ve kavramları yeniden icat etmemiz gereken bir aşamada olduğumuzu düşünüyor.
Bu makalede AI düşünebilir mi yoksa acı hissedebilir mi? Google DeepMind: İnsanlar AI'nın duygusal bağlarını küçümsüyor, AI ile aşık olmak düşündüğünüzden daha gerçek. İlk olarak 链新闻 ABMedia'da ortaya çıktı.
View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
AI düşünebilir mi ve acı çekebilir mi? Google DeepMind: İnsanlar AI duygusal bağlantısını küçümsüyor, AI ile aşk konuşmak düşündüğünüzden daha gerçek.
Bu Google DeepMind'ın düzenlediği Podcast'te, Londra Imperial College Robotik Bölümü profesörü ve DeepMind kıdemli araştırmacısı Murray Shanahan, sunucu Hannah Fry ile birlikte AI gelişimini tartışıyor. Bilim kurgu filmlerinin felsefi ilhamlarından başlayarak, AI'nın "akıl yürütebilirliği", "bilinç ve duygulara" sahip olup olmadığı ve AI'ya haklar ve etik koruma verilip verilmeyeceği konularına kadar sohbet ediyorlar.
AI sadece bir sohbet Botu değildir, aynı zamanda birçok zihinsel ve felsefi soruyu da teşvik eder.
Shanahan, açılışta, AI'nin "insan zihninin doğası" ve "bilinç" hakkında sayısız felsefi soru ortaya çıkardığını belirtti.
O, hatta şu anki büyük dil modellerini tanımlamak için yabancı ama akla benzer varlıklar (Exotic mind-like entities) kullanıyor (LLM) ve insanlığın henüz bunları tanımlamak için yeterli bir kelime dağarcığı ve çerçeve oluşturmadığını vurguluyor.
Bilim kurgu filmlerinden yola çıkarak, insanlığın AI duygusal bağlarının gerçekliğini küçümsüyor mu?
Shanahan, film 《人造意識 Ex Machina》 için danışmandı. O, başlangıçta insanlığın sesli AI'ye aşık olduğu 《雲端情人 Her》 filmine pek değer vermediğini hatırlıyor; ancak şimdi geriye dönüp baktığında, gerçek dünyanın gelişiminin bu "sanal aşk"ın uygulanabilirliğini neredeyse tamamen kanıtladığını görüyor.
O açıkça söyledi: "İnsanların ve bedensiz AI'ların ilişki kurma olasılığını küçümsedik."
Sol yapay bilinç, sağ bulut sevgilisi film görüntüsü. AI'nin gelişim sürecini, Sembolik AI'den büyük dil modellerine kadar tanıyın.
Shanahan, Sembolik AI ( okulundan gelmektedir, o dönemde AI, mantıksal kurallarla "eğer... o zaman..." şeklinde akıl yürütmekteydi, tıpkı tıbbi uzman sistemleri gibi.
Ancak bu model çok kırılgandı ve insan girişi kurallarına çok bağımlıydı. Daha sonra "veri odaklı" sinir ağlarına geçmek AI'nın atılım yapmasını sağladı.
Artık LLM'ler, )Düşünce zinciri( gibi akıl yürütme zincirlerini taklit edebiliyor. Örneğin, ChatGPT önce mantıksal adımları sıralayıp sonra cevap veriyor, bu da insanları AI'nın gerçekten akıl yürütüp yürütemeyeceğini yeniden düşünmeye sevk ediyor.
Gerçek akıl yürütme mi yoksa taklit mi, matematiksel mantık ile dilsel akıl yürütme çok farklıdır.
Shanahan, geleneksel AI'nın sözde akıl yürütmesinin, matematik teoremlerini kanıtlayabilen türdeki "sert mantık" olduğunu açıkladı.
Ancak günümüzdeki LLM'ler, istatistik kullanarak dil kalıplarını taklit ediyor ve cevapların doğruluğunu garanti etmiyor. Örneğin, bir kargo şirketinin araç filosunun rotasını planlamak gibi bir problemde, geleneksel algoritmalar daha doğru olabilir, ancak LLM daha esnektir.
Turing Test geçmişte mi kaldı? Film Garland testi daha fazla bilinç taşıyor
Turing Test ), yapay zekanın insanı taklit edip edemeyeceğini değerlendiren erken dönem bir yöntemdir, ancak Shanahan buna çok dar bir yaklaşım olarak bakmakta ve yalnızca dil becerisini test ettiğini belirtmektedir.
O, film "Yapay Bilinç"teki ilham verici "Garland Test"i daha çok takdir ediyor.
"Karşı tarafın bir Bot olduğunu bilmenize rağmen, onun bilinçli olduğunu düşünmek, tartışmaya değer gerçek bir mesele." diye vurguladı Shanahan.
Francois Chollet'in ARC Testi: Daha çok bir IQ testi gibi bir meydan okuma
O, ayrıca AI'nın soyut kuralları anlamasını gerektiren başka bir ileri seviye test olan "ARC Test"ten de bahsetti.
Ancak teknoloji ilerledikçe, bazı LLM'ler şiddetli yöntemler ve model tanıma ile de geçebiliyor, bu da testlerin ruhunu zorluklarla karşı karşıya bırakıyor ve AI değerlendirme standartlarının teknolojik evrime uygun olarak ayarlanması gerektiğini vurguluyor.
Gövdeler mi anahtar? Shanahan: Gövdesiz AI asla bir tat eksik olacak.
İnsan zihni, mekân ve duyusal deneyimle ayrılmaz bir bütün oluşturur. Shanahan, dilimizin her yerde mekân metaforları içerdiğini, derinlemesine anlama veya içine dalma gibi ifadelerin beden deneyimlerinden kaynaklandığını vurgular.
Ona göre, AI'nin dünyayı gerçekten anlaması ve genel zeka (AGI)'ye ulaşması için "somut Botlar" geliştirilmesi gerekmektedir.
Dil yanıltabilir, rastgele AI'ye inanmak, bilmek ve hissetmek demeyin.
Shanahan, AI hakkındaki algımızın sıklıkla dilin yanıltmasıyla şekillendiğini düşünüyor. "Navigasyonun 'senin otoparkta olduğunu düşündüğünü' söylemek gibi ifadeler, makinelerin öznel bir algıya sahip olduğu yanılgısını yaratıyor.
O, bu tür bir halk psikolojisi dilinin (Folk psychology)'in AI'nin zihinsel durumunu abartmamıza neden olabileceğini hatırlattı.
AI gelecekte acı çekecek mi? Shanahan, eğer acı çekecekse dikkatli olmalıyız diyor.
AI'nın "acıyı hissedip hissedemeyeceği" gibi etik bir konu hakkında Shanahan, mevcut modelin bir bedene sahip olmadığını ve "acıyı hissetme" koşullarını taşımadığını belirtti.
"Ama gelecekte AI, duyguları hissedebilme veya acı çekebilme yeteneği ile tasarlanırsa, insan toplumu bunun için koruma etiği oluşturmalıdır." diye vurguladı.
Neden ahtapot bahsediliyor? Shanahan, bunu AI'nın gelecekteki durumunu betimlemek için kullanıyor.
Shanahan, ahtapotları örnek alarak, bilim camiası geçmişte ahtapotların duyguları olduğunu düşünmüyordu, ancak etkileşimlerin artması ve sinir biliminin gelişmesiyle, onların bilinçli olduğunu kabul etmeye başladık.
"Başlangıçta duygusal bir varlık olarak düşünülmeyen, ancak etkileşimler derinleştikçe insanların bakış açısının yavaş yavaş değişeceği." Shanahan, gelecekteki AI'nin de benzer bir süreçten geçeceğini düşünüyor.
Lütfen AI'ye nazik olun, size sürprizler sunacaktır.
Shanahan son olarak bir pratik ipucu paylaşıyor: AI modelleriyle konuşurken nazik olun, bu onların daha iyi ve akıcı yanıt vermesine yardımcı olacaktır.
Bunu "rol yapma etkisi"nin bir sonucu olarak adlandırıyor, çünkü AI modelleri insan diyaloglarının bağlamını ve duygusunu taklit ediyor.
İnsan olmayan ama insana çok benzeyen şeyleri tanımlamak için yeni bir dile ihtiyacımız var.
Shanahan, bu AI'leri tanımlamak için insan zihnine çok benzeyen ama aslında tamamen farklı bir yeni tür AI varlığını kullanmayı önerdi. Zihniyet ve varlık anlayışımızı değiştirecek olan bu sürecin kendisi, AI'yi tanımlamak için dil ve kavramları yeniden icat etmemiz gereken bir aşamada olduğumuzu düşünüyor.
Bu makalede AI düşünebilir mi yoksa acı hissedebilir mi? Google DeepMind: İnsanlar AI'nın duygusal bağlarını küçümsüyor, AI ile aşık olmak düşündüğünüzden daha gerçek. İlk olarak 链新闻 ABMedia'da ortaya çıktı.