Yapay Zeka Üzerine Tanrısal Algı ve Gerçekler

Yapay zekâ, LLM ve dil modelleri neden insanlar tarafından tanrısal seviyede algılanıyor?

Yapay Zeka, Tanrılar, Modeller ve Beklentiler

Geçen hafta masada üç kişiydik: babam, ablam ve ben. Daha doğrusu, biz dördüncü kişiyi çağırdık: ChatGPT.

Babama “Bu yapay zekâyı test et” dedim. Ciddi ciddi, sanki karşısında görünmez bir öğretmen varmış gibi dikildi. Hiç tereddüt etmeden ağzından şu cümle çıktı:
“Dünyanın en yüksek faizi şu an hangi ülkede, hangi tarihte hangi merkez bankası kararıyla açıklandı?”

Tabiiki GPT araştırma sonucu bir sonuç çıkardı ama çıkan sonuç babamı tatmin etmedi.

Ardından ablam devreye girdi.
Ölü Deniz'deki suyun şu anki sıcaklığını sordu.
Teknik olarak, bu bilgi sistemde yoktu. Eğer ChatGPT isterse tarayıp bulabilirdi. Ona, bu tarz verilerin doğrudan sistemde bulunmadığını, arama motoru üzerinden güncel bilgiye ulaşması gerektiğini anlattım. Ama ablam ısrar etti:

“Sen sor, o bilir.”

Bu sırada küçük kız kardeşim geldi. GPT açık olan telefona seslendi:

“Bana bir resim fikri ver.”
Ne tarz istediğini sordum.
“Fark etmez,” dedi.
Ama sonra önerilen hiçbir fikri beğenmedi:
“Bunu mu önerdi şimdi bu yapay zekâ?”

İşte o anda fark ettim:
İnsanlar, bilmedikleri şeylere tanrısal güçler yüklemeye bayılıyor.

ChatGPT bir dil modeli. Ama onlar için sanki antik çağlardan gelen bir bilge, bir kahin, bir yaratıcı gibi çalışmalıydı.
Tahmin etmeli, hissetmeli, mükemmel olmalıydı.

Ama o bir model. Koddan yapılmış bir algoritma.
Ne kalp var içinde, ne sezgi, ne de ilahi bir sezme gücü.

Belki de bu yazı, o beklentileri anlamanın ilk adımıdır.

İnsanlar neden LLM’lere tanrısal anlamlar yüklüyor?

1. Bilinmeyene karşı duyulan hayranlık

Tarih boyunca insanlar anlayamadıkları şeylere tanrısal anlamlar yüklediler.
Güneş Tutulması olduğunda Tanrının öfkelendiğini düşündüler.
Deprem olduğunda Tanrıların savaştığını
Yağmur Yağdığında Tanrıların && Meleklerin ağladığını

Bugünse;

"Benim bilemediğim şeyi bu yazılım nasıl biliyor? Bizi ele geçirebilirler mi? Sorduğum her soruya bir cevabı var. (Çoğu zaman doğru olduğunu düşünürler ama çok vakit geçirirsen olmadığını anlarsın) Hatta benim tarzımı anlayıp bana ona göre espri bile yapıyor."

Burada tanrısallık başlıyor. Bilinmeyeni anlamlandıramadıkları için insani ya da ilahi özellikler vermek, refleksif bir davranışa dönüşüyor.

Benim bilemediğim asla toparlayamayacağım veriyi nasıl bu kadar hızlı yazdı?
Bu noktada insan şunu unutuyor:

🧠 Zeka ≠ 🧘 Bilgelik

2. İnsanlar anlam peşinde

Bir insan bizimle konuştuğunda, verdiğimiz cevaplardan bizi "anlamaya" veya "anlamlandırmaya" çalışır.
Aynı şeyi yapay zeka yaptığında
"Bana özel cevap verdi."
"Beni Anladı"
"Demek ki beni düşünüyor."

Ama gerçek şu: Model sadece senin yazdıklarına tepki veriyor. Ne seni düşünüyor, ne seni hatırlıyor, ne de seni yargılıyor.

Dil Modelleri Nasıl Eğitilir? Benim Eğittiğim Model ve Beni Kapsayan Alan

Modellerin amacı, bir sonraki kelimeyi ya da durumu tahmin etmektir.
Bu işleme İngilizcede "prediction" denir.

Dil modeli üstünden bir örnek:
"Kedi süt içmeyi çok..."
Bu cümlede “çok” kelimesinden sonra “sever” gelme ihtimali çok yüksektir. Model de bunu tahmin eder.
Bu tür olasılıkların belli bir sınırı vardır, buna da "threshold" yani eşik değeri denir.

Peki bu nasıl oluyor?

Model eğitilirken ona büyük bir veri seti (dataset) verilir.
Bu veri, örnek giriş-çıkışlarla birlikte modele gösterilir:

  • Giriş: “Kedi süt içmeyi çok...”
  • Beklenen çıkış: “sever.”

Model tahminde bulunur, sonuçla karşılaştırılır ve doğruluğu ölçülür.
Bu döngü binlerce kez tekrar eder. Sonuçta model, istatistiksel olarak en iyi tahminleri yapmayı öğrenir.

Birşeyler canlanmaya başladı mı?

Burada kendi modelinizi eğitirken bazı dikkat etmeniz gereken noktalar var. Veriyi nereden bulduğunuz tüm verinin aynı formatta olması ve sonuçlarının olması önemli. Bunun ingilizcede karşılığı "Data Collector" "Data Engine" de denebilir.

Aşırı Öğrenme (Overfitting) Sorunu

Düşün ki bir kitabı 70 kez ezberledin. O kitaptan gelen soruları tam isabetle cevaplarsın.

  • Ama başka kitaptan bir soru geldiğinde — saçmalarsın.
  • Hatta yüksek özgüvenle hatalı cevaplar verirsin.

Burada anlayacağınız matematikte konuşacak olursam sizi bir model olarak düşünelim. Bir prediction yaptınız ve aynı kitabı ezberlediniz ama farklı kitaptan soru geldi. Olsun çok iyi ezberlediğiniz için Yüksek özgüvenli cevapladınız. (Unutmayın modelin düşünmek gibi bir yeteneği yok o yüzden yüksek doğrulukla cevapladınız.)

İşte buna overfitting denir.
Model, ezberler ama genelleyemez. Gerçek hayatta işe yaramaz hale gelir.

Sonuç:

Bu bölümle birlikte artık şu netleşiyor:
İnsanların LLM’lere tanrısal anlamlar yüklemesi, hem psikolojik hem de kültürel temellere dayanıyor.
Ama arka planda çalışan sistem, aslında çok daha insani:
Yanılıyor, deniyor, öğreniyor, hata yapıyor.

Yapay Zeka Modeli eğittim ve eğittim modeli Ben Hangi Alanlarda Kullandım? 

(Finansal terimler içerebilir anlamamanız önemli değil)

Finansal konular için RNN ile bir model eğittim. binance ve türev borsalardan marjin grafiklerini indirip bunu görsel grafiklerden sayısala çevirip excel tablosu olarak hazırladım.

RNN için ek not: RNN'ler hatırlayabilir. Bu konuya başka yerde değiniriz çok detaylı ve kapsamlı teknik detay isteyen bir alan.

3 yıllık 5 yıllık 5 dakikalık mumlar ile hazırladım kripto borsasının 7/24 açık olduğunu düşünün 1 günde mevcut olan tüm 5 dakikaları bulun farklı kripto çiftlerindeki datalarıda hesaba katın
excel bazında yaklaşık 15 milyon satır demek.

Model şöyle çalıştı. ilk 3 - 4 saatlik mumu inceleyip sonraki mumu tahmin etti ve tahmin sonucunu gerçek sonuç farkını aldı.
Bu şekilde 15 milyon veriyle eğitti. Bazı hatalar ve dışsal etkenler dışında iyi bile çalıştı. Böylece otomatik işleme girebiliyorum model benim yerime borsa yönünü tahmin edebiliyordu.

Ama bir haber geldiğinde? İşte bu noktada kaçırıyor. 15. dakikada %1 düşen kripto para çifti haber sebebiyle düşmesini kafasında oturtamıyor. Maalesef bu tür durumlarda kusursuz olma şansını kaybediyor.

Birler ve Sıfırlar

Bilgisayar bilimleri ve bilim kurgu filmleri-dizileri sebebiyle herkes makinelerin 1 ve 0 dan ibaret olduğunu düşünebilir ama -1 0 ve 1 de olabilir hatta 7 den -7 ye bile olabilir.
Yapay zekada elimizdeki datayı -1 ile 1 arasına indirgeyip çıkan sonucun ne kadar pozitif ya da negatif olduğunu anlayabiliriz. Sıfıra yaklaşıyorsa mükemmel ya da overfitting olabilir.

Kapanış:

Genel bir giriş yaptık. Teknik detaydan kaçınmak istedim ama sonlara doğru kendimi tutamadım. Her konuyu başlık başlık inceleyip burada listeleyeceğim. Şimdilik bu kadardı. Umarım bir gün hepimizin tanrısal bir modeli olur ve hayatı daha yaşanılabilir kılar ama o güne kadar siz bilginin gücüne inanın tanrısallığa değil.

Diğer Yapay Zeka Yazıları ve Önemli olanlar:
Yapay Zeka Kategorisi
Eklenecek...

Kaynak:

OpenAI Blog – How GPT Works

Wikipedia – Large Language Model

Hugging Face – What is Overfitting?

Subscribe to Valkynox

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
[email protected]
Subscribe