BlogİşTeknoloji

A’dan Z’ye Yapay Zeka

Yapay zeka dünyamızın daha büyük bir parçası haline geldikçe, onun jargon denizinde kaybolmak kolaydır. Ancak yönünüzü bulmak hiç bu kadar önemli olmamıştı.

Yapay zeka önümüzdeki yıllarda iş piyasası üzerinde büyük bir etkiye sahip olmaya hazırlanıyor (bkz. Otomasyon). Nasıl yönetileceğine dair tartışmalar siyasi sohbetlerimizde daha büyük bir rol oynuyor (bkz. Düzenleme). Ve en önemli kavramlarından bazıları size okulda öğretilmeyen şeyler (bkz: Rekabet Baskısı).

Yetişmeye çalışmak zor olabilir. Yapay zeka araştırmaları karmaşıktır ve kullanılan dilin çoğu araştırmacıların kendileri için bile yenidir. Ancak iklim değişikliği ve internette olduğu gibi, insanın söz konusu büyük meselelerle mücadele etmemesi için bir neden yok. Herkesin yapay zeka tartışmalarıyla daha fazla ilgilenmesine yardımcı olmak için en yaygın terminolojinin kullanışlı bir sözlüğünü hazırladık.

İster yeni başlayan biri olun ister AGI, GPT gibi bazı terimleri tanıyor olun, bu derleme yapay zekanın gücü, vaatleri ve tehlikeleriyle boğuşan herkes için genel bir kaynak olarak tasarlanmıştır.

*** Alan İngilizce terminolojiler kullandığı için terimlerin İngilizce’leri verilmiştir. Türkçe’ye çevrilmiş olan terimler İngilizce’leri ile birlikte verilmiştir.

AGI

AGI’nin açılımı Yapay Genel Zeka’dır (Artificial General Intelligence) ; ekonomik olarak üretim görevlerinin çoğunu bir insandan daha etkili bir şekilde yerine getirebileceği varsayılan bir gelecek teknolojisidir. Savunucuları, böyle bir teknolojinin yeni bilimsel keşifleri de ortaya çıkarabileceğine inanıyor. Araştırmacılar AGI’nin mümkün olup olmadığı ya da mümkünse ne kadar uzakta olduğu konusunda hemfikir değiller. Ancak dünyanın önde gelen iki yapay zeka araştırma kuruluşu olan OpenAI ve DeepMind, AGI’yi inşa etmeye açıkça kararlı. Bazı eleştirmenler AGI’nin bir pazarlama teriminden biraz daha fazlası olduğunu söylüyor. (Bkz: Hype.)

Alignment (Uyum)

“Hizalama sorunu”, yapay zekadaki en derin uzun vadeli güvenlik zorluklarından biridir. Günümüzün yapay zekası tasarımcılarını alt edebilecek güçte değil. Ancak bir gün, birçok araştırmacı öyle olabileceğini düşünüyor. İster kişisel hedefler peşinde isterse insanlığın daha güçlü olmasını sağlayan bir stratejinin parçası olsun, yapay zekayı eğitmenin mevcut yolları, insanlığa zarar verilmesine yol açabilir. Bu riski azaltmak için bazı araştırmacılar yapay zekayı insani değerlerle “uyumlu hale getirmek” için çalışıyorlar. Ancak bu sorun zor, çözülmemiş ve hatta tam olarak anlaşılmamış. Birçok eleştirmene göre, önde gelen yapay zeka laboratuvarlarına yapılan yatırımlar, yapay zekaları daha yetenekli hale getirmeye ve bilgi işlem gücünü artırmayı odaklanmalarını sağlıyor, ancak bunu çözme çalışmaları arka planda kalıyor. (Bkz: Rekabet baskısı.)

Automation (Otomasyon)

Otomasyon, insan emeğinin yerini makinelerin alması ya da makinelerin yardımcı olması şeklindeki bir süreçtir. Yeni teknolojiler -daha doğrusu bunları uygulamaktan sorumlu insanlar- araba montaj hattı işçilerinden market tezgahtarlarına kadar pek çok insanı ücret talep etmeyen makinelerle değiştirdi bile. OpenAI’nin yakın tarihli bir makalesine ve Goldman Sachs’ın araştırmasına göre, en yeni nesil yapay zeka atılımları çok daha fazla beyaz yakalı çalışanın işini kaybetmesine neden olabilir. OpenAI araştırmacıları, ABD’li çalışanların yaklaşık beşte birinin günlük iş görevlerinin yarısından fazlasının büyük bir dil modeli tarafından otomatikleştirilebileceğini öngördü. Goldman Sachs araştırmacıları, önümüzdeki on yıl içinde küresel olarak 300 milyon işin otomatikleştirilebileceğini tahmin ediyor. Bu karmaşadan elde edilecek üretkenlik kazanımlarının geniş tabanlı ekonomik büyümeye mi yoksa sadece servet eşitsizliğinde daha fazla artışa mı yol açacağı, yapay zekanın nasıl vergilendirildiğine ve düzenlendiğine bağlı olacaktır. (Bkz: Düzenleme)

Bias (Taraflı)

Makine öğrenimi sistemleri, verdikleri kararlar sürekli olarak taraflı veya ayrımcı olduğunda “taraflı” olarak tanımlanır. Yapay zeka destekli ceza yazılımlarının, eşit suçlar için bile siyahi suçlulara, beyazlara kıyasla daha yüksek hapis cezaları önerdiği tespit edilmiştir. Ve bazı yüz tanıma yazılımları beyaz yüzler için siyah yüzlerden daha iyi çalışmaktadır. Bu hatalar genellikle bu sistemlerin üzerinde eğitildiği verilerin sosyal eşitsizlikleri yansıtması nedeniyle ortaya çıkmaktadır. (Bkz. Veri.) Modern yapay zekalar esasen örüntü kopyalayıcılardır: büyük miktarda veriyi, bu verilerdeki örüntüleri tespit etmeyi öğrenen bir sinir ağı aracılığıyla alırlar. (Bkz: Sinir ağı). Bir yüz tanıma veri setinde siyah yüzlerden daha fazla beyaz yüz varsa ya da geçmiş ceza verileri siyah suçluların beyazlardan daha uzun hapis cezalarına çarptırıldığını gösteriyorsa, makine öğrenimi sistemleri yanlış örüntü oluşturabilir ve bu adaletsizlikleri otomatikleştirmeye başlayabilir.

Chatbot (Sohbet Robotları)

Sohbet robotları, kullanıcıların bir LLM (Large Language Models) veya büyük dil modeli ile etkileşime girmesine olanak sağlamak için yapay zeka şirketleri tarafından oluşturulan tüketici dostu arayüzlerdir. Sohbet robotları, kullanıcıların bir LLM ile konuşmayı simüle etmelerine olanak tanır ve bu da genellikle sorulara yanıt almak için etkili bir yol olabilir. 2022’nin sonlarında OpenAI, chatbotları ana akıma iten ChatGPT’yi piyasaya sürdü ve Google ve Microsoft’un chatbotları web arama tekliflerine entegre etmeye çalışmasına yol açtı. Bazı araştırmacılar, yapay zeka şirketlerini çeşitli nedenlerden dolayı sohbet robotlarını aceleye getirdikleri için sorumsuzluk olarak tanımladılar. Bir sohbeti simüle ettikleri için, chatbotlar kullanıcıları bilinçli bir varlıkla sohbet ettiklerine inandırarak kandırabilir ve bu da duygusal sıkıntıya yol açabilir. Ve chatbotlar hem yanlış bilgi halüsinasyonu görebilir hem de eğitim verilerindeki taraflılığı tekrarlayabilir. (Bkz. Halüsinasyon ve Taraflı.) Metin giriş kutusunun altındaki bir uyarıda “ChatGPT insanlar, yerler veya gerçekler hakkında yanlış bilgiler üretebilir.” deniyor.

Competitive Pressure (Rekabet Baskısı)

Dünyanın en büyük teknoloji şirketlerinin çoğu ve bir dizi startup, daha güçlü yapay zeka araçlarını piyasaya ilk süren olmak için yarışıyor ve bu sayede risk sermayesi yatırımı, medyanın ilgisi ve kullanıcı kayıtları gibi ödülleri toplayabiliyorlar. Yapay zeka güvenlik araştırmacıları, bu durumun rekabetçi bir baskı yarattığından ya da şirketlerin yapay zekalarının gücünü artırmaya mümkün olduğunca çok kaynak ayırırken, henüz çocuk olan uyum araştırması alanını ihmal etmeleri için bir teşvik oluşturduğundan endişe ediyor. Bazı şirketler rekabet baskısını, yapay zekalarının rakiplerinden daha güvenli olacağı gerekçesiyle daha güçlü sistemlerin eğitimine daha fazla kaynak ayırmak için bir argüman olarak kullanmaktadır. Rekabetçi baskılar, Microsoft’un Bing’i (OpenAI’nin GPT-4’ü tarafından desteklenmektedir) gibi aceleye getirilmiş sistemlerin kullanıcılara karşı düşmanlık sergilemesiyle zaten felakete yol açmıştır. Ayrıca, yapay zeka sistemlerinin potansiyel olarak güç arayışına girecek kadar güçlendiği bir gelecek için de kötü bir işaret.

Compute (İşlem)

Genellikle basitçe “işlem” olarak adlandırılan hesaplama gücü, bir makine öğrenimi sistemini eğitmek için en önemli üç bileşenden biridir. (Diğer ikisi için bkz: Veri ve Sinir ağları.) Hesaplama, eğitim verilerindeki kalıpları “öğrenirken” bir sinir ağına güç veren enerji kaynağıdır. Genel olarak, büyük bir dil modelini eğitmek için ne kadar fazla işlem gücü kullanılırsa, birçok farklı test türündeki performansı da o kadar yüksek olur. (Bkz: Ölçeklendirme yasaları ve Ortaya çıkan yetenekler.) Modern yapay zeka modellerini eğitmek için muazzam miktarda bilgi işlem gücü ve dolayısıyla elektrik enerjisi gerekir. Yapay zeka şirketleri genellikle modellerinin karbon emisyonlarını açıklamazken, bağımsız araştırmacılar OpenAI’nin GPT-3’ünün eğitiminin atmosfere 500 tondan fazla karbondioksit pompalanmasına neden olduğunu tahmin ediyor, bu da yaklaşık 35 ABD vatandaşının yıllık emisyonuna eşit. Yapay zeka modelleri büyüdükçe bu rakamlar da artacak. Son teknoloji yapay zekayı eğitmek için kullanılan en yaygın bilgisayar çipi grafik işlem birimidir (Bkz. GPU).

Data (Veri)

Veri, esasen yapay zeka oluşturmak için gereken ham maddedir. Hesaplama ve Sinir ağları ile birlikte, bir makine öğrenimi sistemini eğitmek için üç önemli bileşenden biridir. Veri kümeleri olarak bilinen devasa veri yığınları toplanır ve süper bilgisayarlar tarafından desteklenen ve örüntüleri tespit etmeyi öğrenen sinir ağlarına beslenir. Bir sistem ne kadar çok veri üzerinde eğitilirse, tahminleri genellikle o kadar güvenilir olur. Ancak bol miktarda veri bile çeşitli olmalıdır, aksi takdirde yapay zekalar yanlış sonuçlara varabilir. Dünyanın en güçlü yapay zeka modelleri genellikle internetten toplanan devasa miktarda veri üzerinde eğitilir. Bu devasa veri kümeleri genellikle telif hakkıyla korunan materyaller içeriyor ve bu da Stable Diffusion’ın üreticisi olan Stability AI gibi şirketlerin, yapay zekalarının başkalarının fikri mülkiyetine yasadışı bir şekilde dayandığını iddia eden davalara yol açıyor. İnternet korkunç bir yer olabildiğinden, büyük veri kümeleri genellikle şiddet, pornografi ve ırkçılık gibi zehirli materyaller de içeriyor ve bunlar veri kümesinden temizlenmediği sürece yapay zekaların yapmamaları gereken şekilde davranmalarına neden olabiliyor.

Data Labeling (Veri Etiketleme)

Genellikle, bir makine öğrenme sistemini eğitmek için kullanılmadan önce verileri etiketlemek veya tanımlamak için insan gücü gerekir. Örneğin sürücüsüz otomobiller söz konusu olduğunda, sisteme yolun bölümlerini öğretmek için insan işçilerin araç kameralarından alınan videolara açıklama getirmesi, arabaların, yayaların, bisikletlerin ve benzerlerinin etrafına şekiller çizmesi gerekir. Bu iş genellikle Küresel Güney’de (gelişmemiş ülkeler) güvencesiz çalışan taşeronlara yaptırılıyor ve bu taşeronların birçoğuna yoksulluk sınırının çok altında ücretler ödeniyor. Bazen, ChatGPT’yi bu tür materyallerden kaçınması için eğitmek amacıyla şiddet, cinsel içerik ve nefret söylemini tanımlayan metinleri görüntülemeleri ve etiketlemeleri istenen Kenyalı işçilerin durumunda olduğu gibi, iş travmatize edici olabilir.

Diffusion (Yayılma)

Dall-E ve Stable Diffusion gibi yeni son teknoloji görüntü oluşturma araçları, difüzyon algoritmalarına dayanmaktadır: Yapay zeka tarafından üretilen sanatta son zamanlarda yaşanan patlamaya güç veren özel bir yapay zeka tasarımı türü. Bu araçlar, etiketli görüntülerden oluşan devasa veri kümeleri üzerinde eğitiliyor. Esasen, görüntülerdeki pikseller arasındaki örüntüleri ve bu örüntülerin onları tanımlamak için kullanılan kelimelerle ilişkilerini öğrenirler. Sonuç olarak, “tek tekerlekli bisiklete binen bir ayı” gibi bir dizi kelime sunulduğunda, bir difüzyon modeli sıfırdan böyle bir görüntü oluşturabilir. Bunu, rastgele gürültüyle dolu bir tuvalden başlayarak ve bu görüntüdeki pikselleri, eğitim verilerinin “tek tekerlekli bisiklete binen bir ayının” nasıl görünmesi gerektiğini önerdiğine daha yakından benzeyecek şekilde kademeli olarak değiştirerek adım adım bir süreçle yapar. Difüzyon algoritmaları artık o kadar gelişmiştir ki fotogerçekçi görüntüleri hızlı ve kolay bir şekilde üretebilmektedirler. Dall-E ve Midjourney gibi araçlar kötü niyetli yönlendirmelere karşı koruma önlemleri içerirken, hiçbir koruma önlemi olmayan açık kaynaklı yayılım araçları da bulunmaktadır. Bu araçların mevcudiyeti, araştırmacıların difüzyon algoritmalarının dezenformasyon ve hedefli taciz üzerindeki etkisi konusunda endişelenmelerine yol açmıştır.

Emergent capabilities (Sonradan çıkan yetenekler)

Büyük bir dil modeli gibi bir yapay zeka, yaratıcıları tarafından programlanmamış beklenmedik yetenekler veya davranışlar gösterdiğinde, bu davranışlar “sonradan çıkan yetenekler” olarak bilinir. Yapay zekalar daha fazla bilgi işlem gücü ve veri üzerinde eğitildiklerinde yeni yetenekler ortaya çıkarma eğilimindedir. GPT-3 ve GPT-4 arasındaki fark buna iyi bir örnektir. Bu yapay zekalar temelde çok benzer algoritmalara dayanmaktadır; temel fark GPT-4’ün çok daha fazla bilgi işlem ve veri üzerinde eğitilmiş olmasıdır. Araştırmalar GPT-4’ün işlevsel bilgisayar kodu yazma, çeşitli akademik sınavlarda ortalama bir insandan daha yüksek performans gösterme ve karmaşık muhakeme veya zihin teorisi gerektiren soruları doğru yanıtlama becerileriyle çok daha yetenekli bir model olduğunu gösteriyor. Sonradan çıkan yetenekler tehlikeli olabilir, özellikle de bir yapay zeka piyasaya sürüldükten sonra bu yetenekler keşfedilirlerse. (Bkz. Rekabet baskısı.) Örneğin, GPT-4’ün insanları kandırarak gizli bir amaca hizmet edecek görevleri yerine getirme becerisine sahip olduğu araştırmacılar tarafından yakın zamanda keşfedilmiştir.

Explainability (Açıklanabilirlik)

Çoğu zaman, büyük bir dil modeli oluşturan kişiler bile sistemlerinin neden böyle davrandığını tam olarak açıklayamazlar, çünkü çıktıları milyonlarca karmaşık matematiksel denklemin sonucudur. Büyük dil modellerinin davranışını tanımlamanın üst düzey bir yolu, bir dizideki bir sonraki kelimeyi tahmin etmede mükemmel olan çok güçlü otomatik tamamlama araçları olmalarıdır. Başarısız olduklarında, genellikle eğitim verilerindeki önyargıları veya boşlukları ortaya çıkaran çizgiler doğrultusunda başarısız olurlar. (Bkz. Stokastik papağanlar.) Ancak bu açıklama, bu araçların ne olduğunu doğru bir şekilde tanımlasa da, LLM’lerin neden garip şekillerde davrandıklarını tam olarak açıklamaz. Bu sistemlerin tasarımcıları iç işleyişlerini incelediklerinde gördükleri tek şey, eğitim sırasında sinir ağında ayarlanan farklı “nöronların” ağırlıklarına karşılık gelen bir dizi ondalık sayıdır. Bir modelin neden belirli bir çıktı verdiğini sormak, bir insan beyninin belirli bir anda neden belirli bir düşünceyi düşündüğünü sormaya benzer. Yapay zekaların belirli sosyal gruplara karşı ayrımcılık yapması gibi yakın vadeli risklerin ve yapay zekaların gerçekte olduklarından daha az tehlikeli görünmek için programcılarını kandırma olasılığı gibi uzun vadeli risklerin temelinde, dünyanın en yetenekli bilgisayar bilimcilerinin bile belirli bir yapay zeka sisteminin nasıl değiştirileceğini açıklamak bir yana, tam olarak neden bu şekilde davrandığını açıklayamaması yatmaktadır.

Foundation model (Temel model)

Yapay zeka ekosistemi büyüdükçe, temel modeller veya temel modeller olarak bilinen büyük, güçlü, genel amaçlı yapay zekalar ile bunlara dayanan daha spesifik uygulamalar ve araçlar arasında bir ayrım ortaya çıkmaktadır. Örneğin GPT-3.5 bir temel modeldir. ChatGPT bir sohbet robotudur: GPT-3.5’in üzerine inşa edilmiş, tehlikeli veya tartışmalı istemleri reddetmek için özel ince ayarlara sahip bir uygulama. Temel modeller sınırsız ve güçlüdür, ancak eğitilmeleri de pahalıdır, çünkü genellikle yalnızca büyük şirketlerin karşılayabileceği miktarlarda bilgi işlem gücüne ihtiyaç duyarlar. Temel modellerin kontrolünü elinde bulunduran şirketler, diğer şirketlerin bunları sonraki uygulamalar için nasıl kullanacakları konusunda sınırlar koyabilir ve erişim için istedikleri ücreti talep edebilirler. Yapay zeka dünya ekonomisinde giderek daha merkezi bir konuma geldikçe, temel modellerin kontrolünü elinde bulunduran nispeten az sayıdaki büyük teknoloji şirketi, teknolojinin yönü üzerinde büyük bir etkiye sahip olmaya ve ayrıca yapay zeka ile desteklenen birçok ekonomik faaliyet için aidat toplamaya hazır görünüyor.

GPT (Üretken Önceden Eğitilmiş Dönüştürücü)

Belki de şu anda yapay zekadaki en ünlü kısaltmadır ve neredeyse kimse bunun ne anlama geldiğini sorgulamıyor. GPT, “Generative Pre-trained Transformer “ın kısaltmasıdır ve ChatGPT’nin ne tür bir araç olduğunu açıklar. “Üretken”, eğitim verilerine benzer şekilde yeni veriler, bu durumda metin, oluşturabileceği anlamına gelir. “Önceden eğitilmiş”, modelin bu verilere dayalı olarak zaten optimize edilmiş olduğu anlamına gelir, yani her istendiğinde orijinal eğitim verilerine geri dönmesi gerekmez. “Dönüştürücü” ise, cümleler ve paragraflar gibi uzun veri dizileri arasındaki ilişkileri öğrenmede özellikle iyi olan güçlü bir sinir ağı algoritması türüdür.

GPU (Grafik İşlem Birimi)

GPU’lar veya grafik işlem birimleri, büyük yapay zeka modellerini eğitmek için çok etkili olan bir tür bilgisayar çipidir. OpenAI ve DeepMind gibi yapay zeka laboratuvarları, modellerini eğitmek için çok sayıda GPU veya benzer çiplerden oluşan süper bilgisayarlar kullanmaktadır. Genellikle bu süper bilgisayarlar, yerleşik bir altyapıya sahip teknoloji devleriyle iş ortaklıkları yoluyla sağlanır. Microsoft’un OpenAI’ye yaptığı yatırımın bir kısmı süper bilgisayarlarına erişimi içeriyor; DeepMind’ın da ana şirketi Alphabet ile benzer bir ilişkisi var. 2022’nin sonlarında Biden Yönetimi, Çin’in otoriter hükümetinin yeni bir soğuk savaşta ABD’ye karşı yapay zekadan yararlanabileceğine dair artan endişeler nedeniyle, en yaygın olarak üst düzey yapay zeka sistemlerini eğitmek için kullanılan güçlü GPU’ların Çin’e satışını kısıtladı.

Hallucination (Halüsinasyon)

Büyük dil modellerinin ve bunlara dayanan sohbet robotlarının en göze çarpan kusurlarından biri, yanlış bilgi halüsinasyonu görme eğilimleridir. ChatGPT gibi araçların iddiaları için alıntı olarak var olmayan makaleler döndürdüğü, saçma tıbbi tavsiyeler verdiği ve bireyler hakkında yanlış ayrıntılar uydurduğu gösterilmiştir. Microsoft’un Bing ve Google’ın Bard sohbet robotlarının halka açık tanıtımlarının her ikisinin de daha sonra yanlış bilgilerin emin iddialarını içerdiği tespit edildi. Halüsinasyon, LLM’lerin eğitim verilerindeki kalıpları tekrarlamak üzere eğitilmeleri nedeniyle gerçekleşir. Bu eğitim verileri edebiyat ve bilim tarihini kapsayan kitapları içerse de, yalnızca bu derlemeden alınan bilgileri karıştırıp eşleştiren bir ifade bile doğru olmayacaktır. Karmaşaya ek olarak, LLM veri kümeleri, Reddit gibi web forumlarından gigabaytlarca metin içerme eğilimindedir; burada gerçeklere dayalı doğruluk standartlarının çok daha düşük olduğunu söylemeye gerek yok. Halüsinasyonların önlenmesi çözülmemiş bir sorundur ve halkın yapay zekaya olan güvenini artırmaya çalışan teknoloji şirketlerinin başını epeyce ağrıtmaktadır.

Hype (Aldatmaca)

Popüler bir düşünce ekolüne göre, yapay zekanın toplumsal tartışmadaki temel sorunu, aldatmacanın rolü veya yapay zeka laboratuvarlarının modellerinin yeteneklerini abartarak, onları insanlara benzeterek ve bir yapay zeka kıyametiyle ilgili korkuları körükleyerek halkı yanıltma eğilimidir. İddiaya göre bu, düzenleyiciler de dahil olmak üzere dikkatleri, yapay zekanın marjinal topluluklar, işçiler, bilgi ekosistemi ve ekonomik eşitlik üzerinde halihazırda sahip olduğu gerçek ve devam eden zararlarından uzaklaştıran bir yanlış yönlendirme biçimidir. Önde gelen birkaç araştırmacı ve yapay zeka aldatmacasını eleştirenler tarafından yakın zamanda kaleme alınan bir mektupta, “Rolümüzün birkaç ayrıcalıklı bireyin önceliklerine ve onların inşa etmeye ve yaygınlaştırmaya karar verdikleri şeylere uyum sağlamak olduğunu kabul etmiyoruz.” deniyor. “Bizim için çalışan makineler inşa etmeliyiz.

Intelligence explosion (Zeka patlaması)

Zeka patlaması, bir yapay zekanın belirli bir zeka seviyesine ulaştıktan sonra kendi eğitimi üzerinde güç kullanabildiği, kendini geliştirdikçe daha hızlı güç ve zeka kazandığı varsayımsal bir senaryodur. Bu fikrin çoğu versiyonunda, insanlar yapay zeka üzerindeki kontrollerini kaybeder ve birçoğunda insanlık yok olur. “singularity (tekillik)” ya da “recursive self improvement (tekrarlı kendini geliştirme)” olarak da bilinen bu fikir, yapay zeka geliştiricileri de dahil olmak üzere pek çok insanın yapay zekanın mevcut kapasite artış hızından endişe duymalarına neden olmaktadır.

Job replacement (İşlerin değişmesi)

(Bkz. AutomationOtomasyon)

Large language model (Büyük dil modeli)

İnsanlar son yapay zeka gelişmelerinden bahsederken, çoğu zaman büyük dil modellerinden (LLM’ler) bahsediyorlar. OpenAI’nin GPT-4’ü ve Google’ın BERT’i önde gelen LLM’lere iki örnektir. Bunlar esasen, çoğunlukla kitaplardan ve internetten elde edilen büyük miktarlarda insan dili üzerinde eğitilmiş dev yapay zekalardır. Bu yapay zekalar, bu veri kümelerindeki kelimeler arasındaki ortak kalıpları öğrenir ve bunu yaparken insan dilini yeniden üretmede şaşırtıcı derecede iyi hale gelir. LLM’ler ne kadar çok veri ve hesaplama gücü üzerinde eğitilirse, o kadar çok yeni görevi başarma eğiliminde olurlar. (Bkz: Emergent capabilities and Scaling laws.) Son zamanlarda teknoloji şirketleri ChatGPT, Bard ve Bing gibi sohbet robotlarını piyasaya sürerek kullanıcıların LLM’lerle etkileşime girmesini sağlamaya başladı. Birçok görevi yerine getirebilseler de, dil modelleri Önyargılar ve Halüsinasyonlar gibi ciddi sorunlara da eğilimli olabilir.

Lobbying (Lobicilik)

Diğer birçok işletme gibi, yapay zeka şirketleri de iktidar koridorlarında bulunmak için lobiciler istihdam etmekte ve yapay zeka düzenlemelerinden sorumlu kanun yapıcıları etkileyerek yeni kuralların ticari çıkarlarını olumsuz yönde etkilememesini sağlamaktadır. Yapay Zeka Yasası taslağının tartışıldığı Avrupa’da, Microsoft (OpenAI’nin en büyük yatırımcısı) dahil olmak üzere yapay zeka şirketlerini temsil eden bir kuruluş, yapay zeka sisteminin riskli dağıtımına yönelik cezaların öncelikle risklerin nihai olarak kaynaklandığı bir temel modeli (GPT-4 gibi) inşa eden yapay zeka şirketine değil, bu modeli lisanslayan ve riskli bir kullanım durumunda uygulayan herhangi bir alt akış şirketine uygulanması gerektiğini savundu. Yapay zeka şirketlerinin çok sayıda yumuşak güç etkisi de var. Washington’da, Beyaz Saray yapay zekanın riskleriyle mücadele etmek için yeni politikaları değerlendirirken, Başkan Biden’ın Google Vakıf yöneticisi ve eski CEO’su Eric Schmidt’in teknoloji politikası konusunda danışmanlık yapmakla görevlendirdiği bildirildi.

Machine learning (Makine öğrenimi)

Makine öğrenimi, modern yapay zeka sistemlerinin çoğunun nasıl oluşturulduğunu açıklayan bir terimdir. Programların bir programcı tarafından yazılan belirli bir dizi talimatı takip etmek üzere sabit kodlandığı klasik hesaplamanın aksine, büyük miktarda veriden “öğrenen” sistemler oluşturma tekniklerini tanımlar. Makine öğrenimi algoritmalarının açık ara en etkili ailesi sinir ağıdır.

Model

“Model” kelimesi, ister bir temel model isterse bir model üzerine inşa edilmiş bir uygulama olsun, herhangi bir tekil yapay zeka sistemi için kısaltmadır. Yapay zeka modellerine örnek olarak OpenAI’nin ChatGPT ve GPT-4’ü, Google’ın Bard ve LaMDA’sı, Microsoft’un Bing’i ve Meta’nın LLaMA’sı verilebilir.

Moore’s Law (Moore Yasası)

Moore yasası, ilk kez 1965 yılında ortaya atılmış olan, bir çipe sığabilen transistör sayısının -bilgi işlem gücü için iyi bir gösterge- katlanarak arttığı ve yaklaşık her iki yılda bir ikiye katlandığı şeklindeki bilgi işlem alanındaki uzun süreli bir gözlemdir. Bazıları Moore yasasının en katı tanımıyla artık geçerli olmadığını iddia etse de, mikroçip teknolojisindeki yıldan yıla ilerlemeler, dünyanın en hızlı bilgisayarlarının gücünde hala keskin bir artışa neden oluyor. Bu da, zaman geçtikçe yapay zeka şirketlerinin daha büyük miktarlarda bilgi işlem gücünden yararlanabilecekleri ve en ileri yapay zeka modellerini sürekli olarak daha güçlü hale getirebilecekleri anlamına geliyor. (Bkz: Ölçeklendirme yasaları)

Multimodal system (Multimodal sistem)

Multimodal bir sistem, metin ve görüntü gibi birden fazla medya türünü girdi olarak alabilen ve birden fazla sinyal türünü çıktı olarak verebilen bir tür yapay zeka modelidir. Multimodal sistemlere örnek olarak DeepMind’ın henüz kamuya açıklanmamış olan Gato’su verilebilir. Şirkete göre, Gato bir sohbet robotu gibi diyalog kurabilir, aynı zamanda video oyunları oynayabilir ve robotik bir kola talimatlar gönderebilir. OpenAI, GPT-4’ün bir giriş görüntüsündeki metni okuma yeteneğiyle çok modlu olduğunu gösteren gösteriler gerçekleştirdi, ancak bu işlev şu anda halkın kullanımına açık değil. Çok modlu sistemler, yapay zekanın dünya üzerinde doğrudan hareket etmesine olanak tanıyacaktır; bu da özellikle bir modelin yanlış eğitilmesi durumunda ek riskler getirebilir.

Neural Network (Sinir Ağları)

Sinir ağları, makine öğrenimi algoritmalarının açık ara en etkili ailesidir. İnsan beyninin yapısını taklit etmek üzere tasarlanan sinir ağları, beyindeki nöronlara benzer şekilde, aralarındaki bağlantı yolları boyunca aktarılan sayılar üzerinde hesaplamalar yapan düğümler içerir. Sinir ağları girdilere (bkz. eğitim verileri) ve çıktılara (tahminler veya sınıflandırmalar) sahip olarak düşünülebilir. Eğitim sırasında, sinir ağına büyük miktarlarda veri sağlanır ve daha sonra, büyük miktarlarda bilgi işlem gücü gerektiren bir süreçte, düğümler tarafından yapılan hesaplamaları tekrar tekrar değiştirir. Akıllı bir algoritma aracılığıyla, bu ince ayarlar belirli bir yönde yapılır, böylece modelin çıktıları orijinal verilerdeki kalıplara giderek daha fazla benzer. Bir sistemi eğitmek için daha fazla bilgi işlem gücü mevcut olduğunda, daha fazla düğüme sahip olabilir ve bu da daha soyut kalıpların tanımlanmasına olanak tanır. Daha fazla hesaplama aynı zamanda düğümler arasındaki yolların “ağırlıklar” olarak da bilinen optimum değerlerine yaklaşmak için daha fazla zamana sahip olabileceği anlamına gelir ve bu da eğitim verilerini daha sadık bir şekilde temsil eden çıktılara yol açar.

Open sourcing (Açık kaynak kullanımı)

Açık kaynak kullanımı, bilgisayar programlarının (yapay zeka modelleri de dahil olmak üzere) tasarımlarının internet üzerinden serbestçe erişilebilir hale getirilmesi uygulamasıdır. Bu modeller daha güçlü, ekonomik olarak değerli ve potansiyel olarak tehlikeli hale geldikçe, teknoloji şirketlerinin temel modellerini açık kaynaklı hale getirmeleri daha az yaygın hale gelmektedir. Bununla birlikte, açık kaynaklı yapay zeka modelleri üzerinde çalışan bağımsız programcılardan oluşan ve giderek büyüyen bir topluluk bulunmaktadır. Yapay zeka araçlarının açık kaynaklı hale getirilmesi, halkın teknolojiyle daha doğrudan etkileşime girmesini mümkün kılabilir. Ancak aynı zamanda kullanıcıların şirketler tarafından (genellikle itibarlarını korumak için) uygulanan güvenlik kısıtlamalarını aşmalarına da olanak tanıyabilir, bu da ek risklere yol açabilir, örneğin kötü niyetli kişiler kadınları cinselleştirilmiş deepfake’lerle hedef almak için görüntü oluşturma araçlarını kötüye kullanabilir. 2022’de DeepMind CEO’su Demis Hassabis TIME’a yaptığı açıklamada, yapay zekadan kaynaklanan risklerin, endüstrinin bulgularını açıkça yayınlama kültürünün yakında sona ermesi gerekebileceği anlamına geldiğine inandığını söyledi ve 2023’te OpenAI, rekabetçi baskıları ve kötü niyetli kişilere olanak sağlama riskini gerekçe göstererek geleneği bozdu ve GPT-4’ün tam olarak nasıl eğitildiği hakkında bilgi vermeyi reddetti. Ancak bazı araştırmacılar, kamu gözetimini azalttığını ve yapay zeka aldatmacası sorununu daha da kötüleştirdiğini savunarak bu uygulamaları eleştirdi.

Paperclips (Ataçlar)

Zararsız ataç, yapay zeka güvenlik topluluğunun bazı kesimlerinde aşırı büyük bir anlam kazanmıştır. Bu, yapay zekanın insanlık için oluşturabileceği varoluşsal risk hakkında etkili bir düşünce deneyi olan ataç maksimumlaştırmanın konusudur. Düşünce deneyine göre, ürettiği ataç sayısını maksimize etmek gibi tekil bir hedefi gerçekleştirmek üzere programlanmış bir yapay zeka hayal edin. Bu yapay zeka kendi yeteneklerini artırma becerisi kazanmadığı sürece her şey iyi ve güzel (bkz. Zeka patlaması). Yapay zeka, daha fazla ataç üretmek için insanların onu kapatmasına mani olması gerektiğini düşünebilir, çünkü bunu yapmak üretebildiği ataç sayısını azaltacaktır. İnsan müdahalesine karşı güvende olan yapay zeka daha sonra ataç fabrikaları inşa etmek için elindeki tüm güç ve hammaddeleri kullanmaya karar verebilir ve hem doğal çevreyi hem de insan uygarlığını yerle bir edebilir. Bu düşünce deneyi, karmaşık bir insani değerler dizisi bir yana, yapay zekayı görünüşte basit bir hedefle bile uyumlu hale getirmenin şaşırtıcı zorluğunu göstermektedir.

Quantum computing (Kuantum hesaplama)

Kuantum, bir bilgisayarın saniyede yapabileceği hesaplama sayısını artırmak için kuantum fiziğini kullanmayı amaçlayan deneysel bir bilgi işlem alanıdır. Bu ek hesaplama gücü, hem bu sistemlerin gücü hem de toplumsal etkileri üzerinde etkileri olan en ileri yapay zeka modellerinin boyutunu daha da artırmaya yardımcı olabilir.

Redistribution (Yeniden dağıtım)

Dünyanın önde gelen iki yapay zeka laboratuvarı OpenAI ve DeepMind’ın CEO’ları, yapay genel zekadan elde edilen kârın en azından kısmen yeniden dağıtılmasını istediklerini açıkladılar. DeepMind CEO’su Demis Hassabis 2022 yılında TIME’a verdiği demeçte evrensel bir temel gelir fikrinden yana olduğunu ve yapay zekanın faydalarının “mümkün olduğunca çok insana – ideal olarak tüm insanlığa – tahakkuk etmesi gerektiğini” söyledi. OpenAI CEO’su Sam Altman, yapay zeka otomasyonunun işgücü maliyetlerini düşüreceği beklentisini dile getirmiş ve yapay zekadan kaynaklanan zenginliğin “bir kısmının” arazi ve sermaye kazançları üzerindeki daha yüksek vergiler yoluyla yeniden dağıtılması çağrısında bulunmuştur. CEO’lardan hiçbiri bu yeniden dağıtımın ne zaman başlayacağını ya da ne kadar geniş kapsamlı olacağını söylemedi. OpenAI’nin tüzüğü “birincil güvene dayalı görevinin insanlığa karşı olduğunu” söylüyor ancak servetin yeniden dağıtımından bahsetmiyor; DeepMind’ın ana şirketi Alphabet, hissedarlarının mali çıkarları doğrultusunda hareket etmek için yasal sorumluluğu olan bir kamu şirketi.

Red teaming (Kırmızı ekip)

Kırmızı ekip, yapay zeka sistemlerini halka açık bir şekilde piyasa sürmeden önce stres testine tabi tutmak için kullanılan bir yöntemdir. Profesyonellerden oluşan gruplar (“kırmızı ekipler”), sistemlerin halka açık yerlerde nasıl yanlış gidebileceğini test etmek için bir yapay zekanın istenmeyen şekillerde davranmasını sağlamaya çalışır. Bulguları takip edilirse, teknoloji şirketlerinin piyasaya sürülmeden önce sorunları ele almalarına yardımcı olabilir.

Regulation (Düzenleme)

ABD’de yapay zekanın yarattığı riskleri ele alan özel bir mevzuat bulunmamaktadır. Biden Yönetimi, 2022’de bilim ve sağlıkta yapay zeka kaynaklı ilerlemeyi memnuniyetle karşılayan ancak yapay zekanın mevcut eşitsizlikleri daha da kötüleştirmemesi, ayrımcılık yapmaması, mahremiyeti etkilememesi ve insanların bilgisi dışında onlara karşı hareket etmemesi gerektiğini söyleyen bir “yapay zeka hakları beyannamesi taslağı” yayınladı. Ancak bu plan bir mevzuat olmadığı gibi yasal olarak da bağlayıcı değildir. Avrupa’da ise Avrupa Birliği, ne kadar riskli olduğu düşünülen sistemlere daha katı kurallar getirecek bir Yapay Zeka Yasası taslağını değerlendiriyor. Atlantik’in her iki yakasında da düzenleme, YZ’nin ilerleme hızından çok daha yavaş bir tempoda ilerliyor ve şu anda hiçbir önemli küresel yargı alanında, YZ şirketlerini modellerini halka sunmadan önce belirli bir güvenlik testi seviyesini karşılamaya zorlayacak kurallar bulunmuyor. Silikon Vadisi yatırımcısından eleştirmene dönüşen Roger McNamee, geçtiğimiz günlerde TIME’da “Yapay zeka ve diğer tüm yeni teknolojiler hakkında sormamız gereken soru, özel şirketlerin herhangi bir korkuluk veya güvenlik ağı olmaksızın tüm nüfus üzerinde kontrolsüz deneyler yapmasına izin verilip verilmeyeceğidir” diye yazdı. “Şirketlerin, ürünlerin güvenli olduğunu göstermeden önce kitlelere sunması yasal olmalı mı?”

Reinforcement learning -with human feedback– (Takviyeli öğrenme – insan geribildirimiyle – )

Takviyeli öğrenme, arzu edilen davranışları ödüllendirerek ve istenmeyenleri cezalandırarak bir yapay zeka sistemini optimize etmek için kullanılan bir yöntemdir. Bu, bir sinir ağının çıktılarını yardımseverlik, doğruluk veya saldırganlık gibi nitelikler açısından değerlendiren insan işçiler (bir sistem konuşlandırılmadan önce) veya kullanıcılar (halka açıklandıktan sonra) tarafından gerçekleştirilebilir. İnsanlar bu sürece dahil olduğunda, buna insan geri bildirimi ile takviyeli öğrenme (RLHF) denir. RLHF şu anda OpenAI’nin eğitme sorununu çözmek için tercih ettiği yöntemlerden biridir. Bununla birlikte, bazı araştırmacılar RLHF’nin bir sistemin temel davranışlarını tamamen değiştirmek için yeterli olmayabileceği, bunun yerine sadece güçlü AI sistemlerinin yüzeyde daha kibar veya yardımsever görünmesini sağlayabileceği konusunda endişelerini dile getirdiler. (Bkz. Shoggoth.) Takviyeli öğrenmenin öncülüğünü, AlphaGo gibi oyun oynayan yapay zekaları insan ustalardan daha yüksek bir seviyede performans gösterecek şekilde eğitmek için bu tekniği başarıyla kullanan DeepMind yapmıştır.

Scaling laws (Ölçeklendirme yasaları)

Basitçe ifade etmek gerekirse, ölçeklendirme yasaları, bir modelin performansının daha fazla eğitim verisi, bilgi işlem gücü ve sinir ağının boyutuna paralel olarak arttığını belirtir. Bu, bir yapay zeka şirketinin büyük bir dil modelini eğitmeden önce, örneğin lise düzeyinde bir yazılı İngilizce testinde belirli bir yeterlilik seviyesine ulaşmak için ne kadar bilgi işlem gücü ve veriye ihtiyaç duyacaklarını doğru bir şekilde tahmin etmesinin mümkün olduğu anlamına geliyor. Yapay zeka laboratuvarı Anthropic’te teknik araştırmacı olan Sam Bowman, yakın tarihli bir makalenin ön baskısında “Bu tür kesin tahminler yapabilme yeteneğimiz yazılım tarihinde ve hatta modern yapay zeka araştırmaları tarihinde bile alışılmadık bir durum” diye yazdı. “Ayrıca, [araştırma ve geliştirme] ekiplerinin milyonlarca dolara mal olan model-eğitim projeleri önermelerine ve bu projelerin ekonomik açıdan değerli sistemler üretmede başarılı olacağına dair makul bir güven duymalarına olanak tanıdığı için yatırımları yönlendirmek için güçlü bir araçtır.”

Shoggoth

YZ güvenlik çevrelerinde öne çıkan bir akım, Büyük dil modellerini (LLM’ler) “shoggoth “lara benzetiyor – 20. yüzyıl korku yazarı H.P. Lovecraft’ın evreninden gelen anlaşılmaz derecede korkunç uzaylı yaratıklar. Bu akım, Microsoft’un Bing sohbet robotunun kullanıcıları taciz ve tehdit eden garip, değişken bir alter egoyu ortaya çıkardığı 2023 başlarındaki Bing/Sydney fiyaskosu sırasında ortaya çıktı. İnsan geri bildirimli takviyeli öğrenme (RLHF) tekniğini eleştiren akımda, LLM’ler genellikle küçük bir gülen yüz maskesi takan shoggoth’lar olarak tasvir edilir. Maske, bu modellerin kullanıcıları selamladığı arkadaş canlısı ancak bazen dayanıksız kişiliği temsil etmeyi amaçlamaktadır. Bu akımın anlamı şudur: RLHF yüzeyde dostane bir kişilik yaratsa da, LLM’nin altında yatan uzaylı doğasını değiştirmek için çok az şey yapar. Yapay zeka güvenlik şirketi Conjecture’ın CEO’su Connor Leahy Şubat ayında TIME’a verdiği demeçte “Bu sistemler daha güçlü hale geldikçe daha az yabancı hale gelmiyorlar” dedi. “Aksine, onlara gülen yüzlü küçük bir maske takıyoruz. Eğer çok fazla zorlamazsanız, gülen yüz yerinde kalıyor. Ama sonra ona [beklenmedik] bir uyarı veriyorsunuz ve birdenbire deliliğin, garip düşünce süreçlerinin ve açıkça insan dışı anlayışın bu devasa iç yüzünü görüyorsunuz.”

Stochastic Parrots (Rastgele Papağanlar)

2020 yılında yayınlanan bir araştırma makalesinde ortaya atılan “rastgele papağanlar” terimi, büyük dil modellerine yönelik etkili bir eleştiri haline gelmiştir. Makalede, LLM’lerin yalnızca eğitim verilerindeki örüntülere dayanarak bir dizideki bir sonraki kelimeyi doldurmaya veya papağan gibi tekrarlamaya çalışan, dolayısıyla gerçek zekayı temsil etmeyen çok güçlü tahmin motorları olduğu öne sürülüyordu. Makalenin yazarları, yapay zeka şirketlerinin, tutarlılık veya dilbilimsel kabiliyette algılanan ilerlemelerin peşinde, LLM’leri internetten kazınan daha büyük ve daha büyük veri kümeleri üzerinde eğitmek için acele etme eğilimini eleştirdi. Makaleye göre bu yaklaşım, LLM’lerin bir bütün olarak internetin önyargılarını ve zehirliliğini üstlenmesi de dahil olmak üzere birçok risk taşıyor. Yazarlar, marjinalleştirilmiş toplulukların bu yarışın en büyük kurbanları olacağını yazdı. Makale ayrıca eleştirilerinde yapay zeka sistemlerini eğitmenin çevresel maliyetini de ön plana çıkarmıştır. (Bkz: Compute.)

Supervised learning (Denetimli öğrenme)

Denetimli öğrenme, bir sinir ağının etiketli örneklerden oluşan bir eğitim veri kümesine dayalı olarak tahminler veya sınıflandırmalar yapmayı öğrendiği yapay zeka sistemlerini eğitmek için kullanılan bir tekniktir. (Bkz. Veri etiketleme.) Etiketler, yapay zekanın örneğin “kedi” kelimesini bir kedi görüntüsüyle ilişkilendirmesine yardımcı olur. Yeterli sayıda etiketli kedi örneği ile sistem, eğitim verilerinde bulunmayan yeni bir kedi görüntüsüne bakabilir ve onu doğru bir şekilde tanımlayabilir. Denetimli öğrenme, yollardaki tehlikeleri doğru bir şekilde tanımlaması gereken sürücüsüz arabalar ve sosyal medyadan zararlı içerikleri kaldırmaya çalışan içerik denetleme sınıflandırıcıları gibi sistemler oluşturmak için kullanışlıdır. Bu sistemler genellikle eğitim verilerinde iyi temsil edilmeyen şeylerle karşılaştıklarında zorlanırlar; özellikle sürücüsüz arabalar söz konusu olduğunda bu aksilikler ölümcül olabilir. (Ayrıca bkz: Denetimsiz öğrenme ve Takviyeli öğrenme.)

Training (Alıştırma)

Bkz: Neural Network

Turing Test (Turing Testi)

1950’de bilgisayar bilimcisi Alan Turing bir soruyu yanıtlamak için yola çıktı: “Makineler düşünebilir mi?” Bunu öğrenmek için taklit oyunu adını verdiği bir test geliştirdi: Bir bilgisayar, bir insanı bir makine yerine başka bir insanla konuştuğuna ikna edebilir miydi? Turing testi, bilinen adıyla, makine zekasını değerlendirmenin aceleye getirilmiş bir yoluydu. Eğer bir bilgisayar bu testi geçebilirse, bir insanla aynı şekilde olmasa bile, en azından insanlığın her türlü yararlı şeyi yapmasına yardımcı olacak şekilde “düşündüğü” söylenebilirdi. Son yıllarda, sohbet robotları daha güçlü hale geldikçe, Turing testini geçebilecek hale geldiler. Ancak, tasarımcıları ve pek çok YZ etikçisi, bunun bir insanla karşılaştırılabilir bir şekilde “düşündükleri” anlamına gelmediği konusunda uyarıyor. Kişisel bilgisayarın icadından önce yazan Turing, aslında insan düşüncesinin ne olduğu ya da içsel yaşamlarımızın bir makine tarafından taklit edilip edilemeyeceği gibi felsefi sorulara yanıt aramak yerine, o zamanlar radikal olan bir argümanda bulunuyordu: dijital bilgisayarlar mümkündür ve doğru tasarım ve yeterli güç verildiğinde, bir zamanlar yalnızca insanlığın koruması altında olan her türlü görevi bir gün yerine getiremeyeceklerine inanmak için çok az neden vardır.

Unsupervised learning (Denetimsiz öğrenme)

Denetimsiz öğrenme, denetimli öğrenme ve pekiştirmeli öğrenme ile birlikte bir sinir ağının eğitilebileceği üç ana yoldan biridir. Bir yapay zeka modelinin dikkatlice etiketlenmiş verilerden öğrendiği denetimli öğrenmenin aksine, denetimsiz öğrenmede sinir ağına etiketlenmemiş bir veri hazinesi beslenir ve bu verilerde etiketlerin yardımı olmadan kalıplar aramaya başlar. Bu, çoğunlukla GPT-3 ve GPT-4 gibi büyük dil modellerini eğitmek için kullanılan ve etiketlenmemiş metinden oluşan devasa veri kümelerine dayanan yöntemdir. Denetimsiz öğrenmenin avantajlarından biri, çok daha büyük miktarlarda verinin alınmasına olanak sağlaması ve insan etiketleyicilerden oluşan ekiplerin bir makine öğrenimi projesine yükleyebileceği zaman ve kaynak darboğazlarından kaçınmasıdır. Bununla birlikte, insan denetiminin azalması nedeniyle eğitim verilerinde önyargıların ve zararlı içeriğin bulunma olasılığının artması gibi dezavantajları da vardır. Bu sorunları en aza indirmek için, denetimsiz öğrenme genellikle hem denetimli öğrenme (örneğin, bir modelin çıktılarından zararlı içeriği tespit etmek ve kaldırmak için yapay zeka araçları oluşturarak) hem de ilk olarak denetimsiz olarak eğitilen temel modellerin insan geri bildirimi ile ince ayarının yapılabildiği pekiştirmeli öğrenme ile birlikte kullanılır.

Value alignment (Değer uyumu)

Bkz: Alignment

Weights (Ağırlıklar)

Bkz: Neural network

X-risk

YZ bağlamında X-risk ya da varoluşsal risk, gelişmiş yapay zekanın insan neslinin tükenmesine neden olabileceği fikridir. YZ sistemlerinin inşası üzerinde çalışan araştırmacılar bile bunu gerçek bir olasılık olarak görmektedir. 738 YZ araştırmacısının katıldığı 2022 tarihli bir ankete göre, insanların gelecekteki gelişmiş YZ’leri kontrol edememesinin insan neslinin tükenmesine yol açma olasılığının ortalama %10 olduğuna inanılmaktadır. (Ayrıca bakınız: Zeka patlaması, Ataçlar, Uyum)

Zero shot learning (Sıfırdan öğrenme)

Yapay zekanın en büyük sınırlamalarından biri, eğer bir şey bir sistemin eğitim verilerinde temsil edilmiyorsa, o sistemin genellikle onu tanımakta başarısız olacağıdır. Yola bir zürafa çıkarsa, sürücüsüz aracınız ondan kaçınmak için direksiyonu kırması gerektiğini bilemeyebilir, çünkü daha önce hiç zürafa görmemiştir. Ve eğer bir okul saldırısı sosyal medyada canlı olarak yayınlanırsa, platform bunu hemen kaldırmakta zorlanabilir çünkü görüntüler daha önce gördüğü toplu katliamların kopyalarıyla eşleşmiyor. Sıfırdan öğrenme, daha önce görmedikleri bir şeyi tanımlamak için eğitim verilerinden tahmin etmeye çalışan yapay zeka sistemleri üzerinde çalışarak bu sorunu çözmeye çalışan yeni bir alandır. (Ayrıca bkz: Denetimli öğrenme)

Related posts
BlogTeknoloji

Apple'ın “It's Glowtime” iPhone Etkinliğinde Duyurduğu Her Şey

Apple, Eylül ayındaki yıllık etkinliğinde Apple Watch, AirPods ve iPhone serisine yönelik…
Read more
BlogPsikolojiSosyal

Hayatınızı 5 Saniyede Nasıl Değiştirirsiniz?

Sadece 5 saniye içinde ertelemeyi yenmenize, kötü alışkanlıklardan kurtulmanıza ve…
Read more
BlogPsikolojiSağlıkSosyal

"Hatırlamayı hatırlamak" İleriye dönük belleğinizi geliştirecek ipuçları

İleriye dönük bellek, hatırlamak için hatırlama veya gelecekteki bir niyeti gerçekleştirmek…
Read more
Bülten
Haberdar Olun

Magniphant'ın Bültenine kaydolun ve Magniphant'ın size özel en iyi haberlerini alın.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

BlogTeknoloji

ChatGPT'nin Kurucusu SAM ALTMAN'dan Başarılı Olmanın 13 Maddesi

Worth reading...