Bu yazımda "Generative AI" yani "Üretken Yapay Zekâ" üzerinde durmak istiyorum.
✨ Üretken Yapay Zeka Nedir?
"Verilerden öğrenme" eylemi, insan tarafından başlatılır ve yönlendirilir; ama bu süreç, modelin kendi matematiksel süreçleriyle gerçekleşir. Dolayısıyla, insan eliyle başlatılır, makine öğrenmesi ile süregelir.
🧠 Klasik Yapay Zekâdan Farkı Nedir?
Klasik Yapay Zekâ kural tabanlı sınıflandırma, etiketleme ve tahminleme üzerine kuruludur.
Üretken Yapay Zekâ ise doğal dil işleme (NLP), büyük dil modelleri (LLM), derin öğrenme ve devasa veri kümeleri üzerinde eğitilmiş sinir ağları ile çalışır.
🔑 Üretken Yapay Zekâ Kullanım Alanları
Üretken Yapay Zekâ içerik yazabilir, uzun metinleri özetleyebilir, görseller ve videolar oluşturabilir, yazılım kodu geliştirebilir, koddaki hataları ayıklayabilir. Bunların yanında birçok dünya devi tarafından verilerden yola çıkılarak stok takibi, satın alımlar, B2C veya B2B tarafında müşterilerle kurulan iletişimin yönetiminde de kullanılır.
Ayrıca kurumsal karar süreçleri için bin bir emekle oluşturulan vaka analizlerini ve olası çözüm önerilerini, bunlara ilişkin prototipleri hızlıca hazırlayabilir. Tabii ki bu çıktıları birebirde olduğu gibi kullanamayacak olsak da, işin kabası ortaya çıkar ve daha az bir eforla sonuca gidebiliriz.
Üretken Yapay Zekâ ile ilgili bir çok farklı kullanım örnekleri mevcut, bunlara da sonraki yazılarımda yer vereceğim.
⚙️NLP ve LLM Nedir?
NLP algoritmalarının temeli "Transformer Modeli"ne dayanır. Bu model, modern Yapay Zekânın kurucu belgesi niteliği taşıyan "Attention is All You Need" başlıklı makalede duyurulmuştur. 2017'de 8 bilim insanı tarafından yazılmış ve Google tarafından yayınlanmıştır. Makaleye halihazırda150 Binden fazla atıfta bulunulmuştur.
Bugün Chat-GPT, Gemini, Co-Pilot gibi Yapay Zekâ arayüzlerinde kullandığımız büyük dil modelleri, "Transformer Modeli" ile tanımlanan doğal dil işleme temelleri baz alınarak bina edilmektedir. "Transformer Modeli" ile oluşan dili işleme/ anlama/ yanıtlama hiyerarşileri ve kullanılan fonksiyonlar/ parametreler her dil modeli tarafından yaratıcısının önceliklendirdiği vizyona göre geliştirilmektedir.
Aşağıda önde gelen Üretken Yapay Zekâ ürünlerinin öne çıkan özelliklerini ve vizyonlarını bulabilirsiniz. Bu örneklerle dil modellerinin neleri öncelediği daha anlaşılır olacaktır:
- GPT‑4: Dengeli model; metin, görsel, ses girdilerini destekler. Kodlama, yazma, analiz için idealdir.
- Claude Opus: Etik ve güvenli Yapay Zekâ vizyonuyla geliştirilmiştir. İnsan yaratıcılığını destekleyerek; ideal bir çalışma arkadaşı olmayı hedefler.
- Gemini 3 Pro: Görsel/video analizinde lider; multi-formatlı evrensel yardımcı, Google hizmetlerine entegre güvenilir dijital asistan.
- DeepSeek: Açık kaynaklı, düşük maliyetli, yüksek performanslı yapay zekâ modelleriyle küresel erişim sağlamak.
- Bloom: Açık kaynak ve çok dilli üretim için idealdir, akademik projelerde yaygındır. 70'ten ülkede 1000'in üzerinde araştırmacı tarafından geliştirilmiştir.
- Mistral: Avrupa merkezli güçlü bir Yapay Zekâ alternatifi sunmak hedeflenmiştir. Hafif, hızlı ve açık kaynak; kurumsal entegrasyonlar için uygundur.
🎯Büyük Dil Modelleri metinleri nasıl anlıyor?
Sadece 1 ve 0'lardan oluşan bilgisayar dünyasında, bir metni anlamak da, tahmin edeceğiniz üzere yine matematiğe dayanır.
Büyük dil modelleri, kendilerine girdi olarak verilen metni temizler, kullanılan kelimelerin eklerini eleyip kök kelimeye indirgeyerek, bunları önce sayılara çevirir, daha sonra metin içindeki kelimeleri anlamlarına göre vektörel forma dönüştürür.
Böylece örneğin (kadın, erkek), (kedi, köpek), (masa, ev) gibi kelimeler ve bunların anlam olarak birbirlerine olan yakınlığını vektörel olarak tanımlar. Akabinde kelimelerin kullanıldığı bağlamın çözümlemesini yapar. Örneğin "cep tel" ifadesindeki "tel"in bakır bir tel değil, bir telefon olduğunu anlamak gibi.
Buna güzel bir örnek de Quentin Tarantino'nun filmi "Kill Bill". "Kill Bill" bir film adı olarak özel bir isim olarak kaydedilip saklanırken, Bill'i öldürmek anlamına gelen Kill Bill ise eylem ifade etmelidir. Dil modelinin her iki ifadedeki nüansı bağlam analizi ile tanımlaması ve yanıtını buna göre oluşturması gerekir.
LLM'in ne kadar çok parametresi varsa, kapasitesi de o kadar üst düzeydedir diyebiliriz. Ancak, modelin zekâsı her zaman parametreye bağlı değildir, küçük ama belli bir amaca yönelik geliştirilmiş bir modelin performansı çok daha iyi olabilir.
Modelin performansı kelimelerin birbirleri ile olan ilişkileri doğru analiz etmesine, modelin eğitildiği verinin kalitesine, eğitim sürecinde uygulanan tekniklerin duyarlılığına ve token kapasitesine yani aynı anda ne büyüklükte bir metni hafızasında tutabileceğine bağlıdır.
Fikriniz olması açısından Yapay Zekâ uygulamalarındaki parametre ve token sayılarına aşağıda yer verdim:
- DeepSeek: 671 Milyar parametre, 64k token kapasitesi
- Bloom: 176 Milyar parametre, 4K token kapasitesi
- GPT-4: 1.8 Trilyon parametre, 32K token kapasitesi
İyapay zeka konusunda iyi bir başlangıç olmuş.Kutlarım.
YanıtlaSilDevamını merakla bekleyeceğim.
Nebil Bilge.
Teşekkür ederim 🙏🏻
Sil