Günümüzde yapay zeka (AI), sabah uyandığımız andan gece uyuduğumuz ana kadar hayatımızın her köşesine entegre olmuş durumdadır; izleyeceğimiz dizileri öneren sistemlerden, en hızlı rotayı çizen navigasyon uygulamalarına ve metin üreten sohbet botlarına kadar geniş bir yelpazede hizmet vermektedir. Peki ama bu sistemler arka planda nasıl çalışır? İnsan beynini taklit eden bu algoritmaların temel mantığı nedir? Bu rehberde, yapay zekanın karmaşık dünyasını herkesin anlayabileceği ve kapsamlı bir şekilde ele alıyoruz.

Yapay Zekanın Zeka Seviyelerine Göre Sınıflandırılması
Yapay zekanın nasıl çalıştığını anlamadan önce, yeteneklerine göre nasıl sınıflandırıldığına bakmak gerekir. Temel olarak yapay zeka üç ana kategoriye ayrılır:
- Dar Yapay Zeka (ANI – Artificial Narrow Intelligence): Günümüzde var olan ve yaygın olarak kullandığımız tek yapay zeka türüdür. Kendi uzmanlık alanında (örneğin satranç oynamak, dil çevirmek veya yüz tanımak) son derece başarılıdır ancak eğitildiği görevin dışına çıkamaz. Siri, Netflix öneri sistemleri, otonom araçlar ve hatta ChatGPT gibi gelişmiş üretken yapay zekalar bu kategoriye girer.
- Genel Yapay Zeka (AGI – Artificial General Intelligence): Henüz teorik aşamada olan bu seviye, bir insanın çözebileceği herhangi bir entelektüel problemi anlama, öğrenme ve uygulama kapasitesine sahip sistemleri ifade eder. AGI’nin farklı disiplinler arasında bilgi transferi yapabilmesi ve insan benzeri bir bilişsel kapasiteye sahip olması beklenmektedir.
- Süper Yapay Zeka (ASI – Artificial Superintelligence): İnsan zekasını yaratıcılık, problem çözme ve sosyal beceriler dahil her alanda geride bırakan, kendi kendini üstel olarak geliştirebilen varsayımsal bir zeka seviyesidir.
Makine Öğrenimi (Machine Learning) ve Öğrenme Mantığı
Yapay zeka şemsiye bir terimdir; Makine Öğrenimi (ML) ise bu sistemlerin veri üzerinden kuralları kendi kendine öğrenmesini sağlayan alt daldır. Geleneksel programlamada bilgisayara kurallar (kodlar) verilirken, makine öğreniminde sisteme veriler verilir ve makine bu verilerdeki kalıpları tanıyarak kuralları (modeli) kendisi oluşturur.
Makine öğrenimi algoritmaları genellikle üç temel paradigmaya ayrılır:
- Denetimli Öğrenme (Supervised Learning): Sisteme etiketlenmiş veriler (örneğin kedi ve köpek fotoğrafları ve bunların ne olduğu bilgisi) verilir ve model bu eşleşmeleri öğrenerek yeni verileri tahmin eder.
- Denetimsiz Öğrenme (Unsupervised Learning): Veriler etiketli değildir. Algoritma, veri kümesindeki gizli yapıları, benzerlikleri ve kümeleri kendi başına bulmaya çalışır.
- Pekiştirmeli Öğrenme (Reinforcement Learning): Deneme-yanılma yoluyla çalışır. Model, bir çevrede aksiyonlar alır ve doğru hamleler için ödül, yanlış hamleler için ceza puanı alarak uzun vadede en yüksek ödülü (başarıyı) getirecek stratejiyi geliştirir.
Yapay Sinir Ağları ve Derin Öğrenme (Deep Learning)
Makine öğreniminin en güçlü ve karmaşık alt dalı Derin Öğrenme (Deep Learning)‘dir. Derin öğrenme, insan beynindeki biyolojik nöronların ve sinapsların yapısından ilham alan Yapay Sinir Ağları (Artificial Neural Networks – ANN) üzerine kuruludur.
Bir yapay sinir ağı temel olarak üç katmanlı bir mimariden oluşur:
- Girdi Katmanı (Input Layer): Ham verilerin (örneğin piksellerin veya kelimelerin sayısal değerlerinin) ağa girdiği ilk katmandır.
- Gizli Katmanlar (Hidden Layers): Öğrenmenin asıl gerçekleştiği, girdilerin matematiksel olarak işlenip özelliklerin çıkarıldığı ara katmanlardır. Modern derin öğrenme modelleri yüzlerce gizli katmana sahip olabilir.
- Çıktı Katmanı (Output Layer): Ağın nihai tahminini veya sınıflandırmasını (örneğin %90 olasılıkla bu bir kedi) üreten katmandır.
Nöronlar, Ağırlıklar ve Aktivasyon Fonksiyonları
Her bir düğüm (yapay nöron), kendisine gelen verileri belirli ağırlıklar (weights) ve sapmalarla (biases) işler. Ağırlıklar, bir bilginin ne kadar önemli olduğunu belirler. İşlenen bu veriler daha sonra bir Aktivasyon Fonksiyonundan (Activation Function) geçer. Aktivasyon fonksiyonları (örneğin ReLU veya Sigmoid), ağa doğrusal olmayan (non-linear) özellikler katar; bu sayede ağ, karmaşık ve düz bir çizgiyle ifade edilemeyen gerçek dünya problemlerini öğrenebilir.
Modeller Hatalarından Nasıl Ders Çıkarır? (Geri Yayılım ve Gradyan İnişi)
Yapay zekanın eğitilmesi süreci, devasa bir deneme-yanılma ve düzeltme matematiğidir.
- İleri Yayılım (Forward Pass): Veri, girdi katmanından çıktı katmanına kadar ilerler ve ağ bir tahminde bulunur.
- Kayıp Fonksiyonu (Loss Function): Yapılan tahminin, gerçek sonuçtan ne kadar saptığını (hatayı) hesaplayan bir fonksiyondur.
- Geri Yayılım (Backpropagation): Hata hesaplandıktan sonra, ağ sondan başa doğru zincir kuralı (chain rule) kullanarak bu hatada hangi nöronun ne kadar payı olduğunu hesaplar.
- Gradyan İnişi (Gradient Descent): Geri yayılımla bulunan hatalara göre, ağın parametreleri (ağırlıkları) hatayı en aza indirecek şekilde güncellenir. Bu süreç milyonlarca kez tekrarlanarak modelin eğitilmesi sağlanır.
Modern Yapay Zeka: Transformer Mimarisi ve LLM’ler
Günümüzde ChatGPT, Claude ve Gemini gibi devrim yaratan Büyük Dil Modellerinin (LLMs) temelinde, 2017 yılında tanıtılan Transformer mimarisi yatar.
LLM’ler temelde, bugüne kadar gördükleri bağlama dayanarak “bir sonraki en olası kelime parçasını (token)” tahmin etmeye çalışırlar. Transformer mimarisini bu kadar özel yapan şey ise Öz-Dikkat (Self-Attention) mekanizmasıdır.
Eski modeller kelimeleri sırayla okurken, Transformer’lar cümledeki tüm kelimelere aynı anda bakar. Öz-dikkat mekanizması sayesinde sistem, bir kelimeyi işlerken o kelimenin cümledeki diğer hangi kelimelerle ilişkili olduğunu matematiksel olarak hesaplar (Sorgu-Anahtar-Değer / Query-Key-Value matrisleri ile). Bu durum, modelin uzak mesafeli bağlamları çok daha iyi kavramasını ve çok daha doğal metinler üretmesini sağlar.
Yapay Zekayı İnsanla Uyumlu Hale Getirmek (RLHF)
Sadece internetteki devasa metinlerle eğitilen bir model, doğru görünse de zararlı, önyargılı veya faydasız yanıtlar üretebilir. Yapay zekayı bizim isteklerimize, değerlerimize ve beklentilerimize uygun hale getirmek için İnsan Geri Bildirimi ile Pekiştirmeli Öğrenme (RLHF) tekniği kullanılır.
Bu süreçte insan etiketleyiciler, modelin verdiği farklı yanıtları karşılaştırır ve puanlar. Bu puanlar kullanılarak bir “Ödül Modeli (Reward Model)” eğitilir. Daha sonra ana dil modeli, bu ödül modelinden en yüksek puanı alacak, yani insanın en çok tercih edeceği tarzda cevaplar vermek üzere (PPO gibi algoritmalarla) pekiştirmeli olarak yeniden optimize edilir. RLHF, AI sistemlerinin halüsinasyon görmesini azaltmak, yararlı ve zararsız (harmless) yanıtlar üretmesini sağlamak için kritik öneme sahiptir.
Yapay Zekanın Donanım Tarafı: Neden CPU Yerine GPU ve TPU?
Bu devasa matematiksel işlemleri sıradan bir bilgisayar işlemcisiyle (CPU) yapmak imkansızdır. Derin öğrenme, aynı anda yapılması gereken milyonlarca matris çarpımından oluşur.
İşte bu noktada devreye Grafik İşlem Birimleri (GPU) ve Google’ın geliştirdiği Tensör İşlem Birimleri (TPU) girer. GPU’lar, aynı anda binlerce işlemi yapabilen paralel işlem çekirdeklerine sahip oldukları için yapay zeka eğitiminde bir standart haline gelmiştir. TPU’lar ise doğrudan yapay sinir ağlarındaki tensör matematiğini (sistolik dizilimler kullanarak) yapmak üzere tasarlanmış, çok daha yüksek enerji verimliliği ve performans sunan özel işlemcilerdir (ASIC).
Gelecek Nereye Gidiyor? Ajan Yapay Zeka (Agentic AI)
Yapay zekanın çalışma mantığını özetlediğimizde, şu an sadece bir prompt’a (isteme) yanıt veren araçlar döneminden, görevleri başından sonuna kadar planlayan, dış dünyadaki uygulamalarla entegre olabilen ve otonom karar alabilen Ajan (Agentic) Yapay Zeka dönemine geçiş yapıyoruz. Geleceğin yapay zeka sistemleri sadece bize metin veya görsel üretmekle kalmayacak, aynı zamanda adımlarımızı planlayan dijital bir iş gücü olarak yanımızda yer alacaktır.
Özetle, yapay zeka büyülü bir kutu değil; muazzam miktarda veri, gelişmiş sinir ağı mimarileri, optimizasyon algoritmaları ve güçlü donanımların mükemmel bir orkestrasyonuyla çalışan, insan zekasını taklit etmeye yönelik matematiksel bir şaheserdir.








