Teknoloji ve Yapay Zeka

OpenAI Yeni Açık Kaynaklı Modellerini Yayımladı: OpenAI GPT-OSS

blog görseli

OpenAI, beş yılı aşkın bir aradan sonra açık-ağırlık dil modeli ailesi GPT-OSS’i duyurdu ve geliştiricilerin kendi altyapılarında çalıştırabileceği iki modeli kullanıma sundu. Bu hamle, maliyet, veri gizliliği ve esneklik odağında “self-host” kurulumlara hız kazandırmayı hedefliyor. Modeller; verimlilik, araç kullanımı ve akıl yürütme gibi gerçek dünyadaki iş akışlarına yönelik yeteneklerle öne çıkıyor. Apache 2.0 lisansı ve açık-ağırlık yaklaşımı sayesinde kurumsal özelleştirme ve yerel barındırma senaryoları çok daha ulaşılabilir hale geliyor.

GPT-OSS Nedir, Neyi Amaçlıyor?

GPT-OSS; metin-odaklı, akıl yürütme (reasoning) performansıyla öne çıkan ve geliştirici araçlarına uyumlu iki açık-ağırlık modelden oluşuyor. GPT-OSS-120b, daha yüksek doğruluk isteyen üretim senaryolarına; GPT-OSS-20b ise cihaz-üstü veya sınırlı kaynaklı ortamlara hitap ediyor. Her iki model de fonksiyon çağrıları, web araması ve Python yürütme gibi “agentik” iş akışlarına destek veriyor. OpenAI, bu modelleri API üzerinden sunmak yerine ağırlıkları indirilebilir kılarak geliştiricilere tam kontrol sağlamayı tercih ediyor. Böylece veri yerelliği ve uyumluluk gereksinimleri olan sektörler için güçlü bir alternatif oluşuyor.

Öne Çıkan Teknik Özellikler

  • MoE mimarisi: 120b’de 128 uzman, 20b’de 32 uzman; her token için 4 uzman etkin. Bu, çıktı kalitesini korurken efektif hesaplamayı düşürüyor.
  • Bağlam penceresi (128K): Uzun dokümanlarda özetleme, çok adımlı muhakeme ve uzun sorgular mümkün.
  • MXFP4 nicemleme: İnferansı hızlandırıp bellek gereksinimini azaltıyor; tüketici donanımında çalıştırmayı kolaylaştırıyor.
  • Metin-odaklı kullanım: Şu an için yalnızca metin girdi/çıktı destekleniyor; çok modlu değildir.

120B Mi 20B Mi? Doğru Modeli Seçmek

Seçim esnasında performans, gecikme, maliyet ve donanım elinizdeki temel değişkenler olacak. 120b, o4-mini düzeyine yaklaşan akıl yürütme sonuçlarıyla daha karmaşık üretim senaryolarına uygunken tek 80 GB GPU gerektiriyor. 20b ise o3-mini sınıfında sonuçlar verirken 16 GB belleğe sığabildiği için dizüstü ya da tek GPU’lu iş istasyonlarında bile pratik. Bağlam penceresi iki modelde de 128K olduğu için uzun belge işlemede benzer avantajlar sağlanıyor. Dış bağımsız değerlendirmeler, bazı benchmark’larda 20b’nin 120b’yi geçtiğini de gösteriyor.

Mimari: Moe, Aktif Parametreler ve Bellek Verimliliği

MoE, her katmanda birçok “uzman”ın bulunduğu; fakat her ileri geçişte yalnızca birkaçı etkinleştiği için etkin parametre sayısını azaltan bir teknik. 120b modelde 36 katmanda toplam 128 uzman; 20b modelde 24 katmanda 32 uzman yapılandırması var ve token başına 4 uzman devreye giriyor. Böylece bellek ayak izi düşerken, büyük bir yoğun modelle kıyaslanabilir doğruluk elde ediliyor. Grup çoklu-sorgu dikkat (grouped MQA) ve bantlı seyrek dikkat gibi optimizasyonlar, uzun bağlamda verimi artırıyor. Sonuçta; daha az VRAM, daha düşük enerji ve daha hızlı çıkarım mümkün hale geliyor.

Performans: Karşılaştırmalar ve Benchmark Sonuçları

OpenAI’nin dahili ölçümlerinde 120b, rekabetçi kodlama, genel problem çözme ve araç çağrımı testlerinde o4-mini ile başa baş sonuçlar verirken o3-mini’yi aşıyor; 20b ise çoğu ölçekte o3-mini’yi yakalıyor. Sağlık ve yarışma matematiğinde 120b’nin öne çıktığı; 20b’nin ise boyutuna göre beklenenden güçlü olduğu raporlanıyor. Bağımsız bir akademik çalışma, HumanEval ve MMLU gibi bazı testlerde 20b’nin 120b’yi geçtiğini, çok dilli görevlerde ise iki modelin de gelişime açık olduğunu belirtiyor.

Lisans ve Kullanım Politikası: “Açık-Ağırlık” Ne Demek?

GPT-OSS, Apache 2.0 lisansı altında yayımlanan açık-ağırlık (open-weight) bir aile; yani eğitimli ağırlıkları indirip üzerinde değişiklik yapabiliyor ve ticari kullanıma sokabiliyorsunuz. Bununla birlikte modeller OpenAI API’si veya ChatGPT üzerinden sunulmuyor; barındırma, bakım ve güvenlik tamamen sizin sorumluluğunuzda. OpenAI ayrıca bir kullanım politikası yayımlamış durumda; bu politika Apache 2.0 ile çelişmeyen ek sınırlar ve raporlama süreçlerini detaylandırıyor.

Donanım ve Dağıtım: Tüketici Donanımında Çalıştırma

120b model, MXFP4 sayesindeki sıkıştırma ile tek bir 80 GB GPU’da; 20b model ise yalnızca 16 GB bellekle çalışabiliyor. Windows tarafında ONNX Runtime optimizasyonlarıyla 20b için yerel hızlandırma duyuruldu; ekosistem olarak vLLM, llama.cpp, Ollama, HF Inference Providers gibi yığınlarla uyumluluk mevcut. Pratikte; tek güçlü iş istasyonu, AI dizüstüler veya küçük bulut örnekleriyle PoC’leri hızla hayata geçirmek mümkün. Donanım ortaklıkları NVIDIA ve AMD’yi de kapsıyor; bu da sürücüler ve derleyicilerde düzenli iyileştirmeler anlamına geliyor.

Güvenlik ve Uyum: Açık Modellerde Risk Yönetimi

Açık-ağırlık yaklaşımı, güvenlik profilini değiştiriyor: Model bir kez yayımlandığında kötü niyetli uyarlamaları engellemek zorlaşıyor. OpenAI, hazırlıklılık çerçevesi altında 120b’yi adversary-fine-tune testlerine tabi tutarak biyolojik/kimyasal ve siber alanlarda “yüksek yetenek” eşiğine ulaşmadığını raporladı. Yine de self-host kurulumlarda içerik filtreleme, denetimli izleme ve güvenli promptlama gibi ek katmanlar gerekecektir.

Geliştirici Deneyimi: Araç Kullanımı, Fonksiyon Çağrıları ve Cot

Modeller; fonksiyon şemalarıyla function calling, web araması ve Python yürütme gibi araçları native destekleyecek biçimde hizalanmış durumda. Ayrıca “düşünme çabası” (reasoning effort) düşük-orta-yüksek olarak ayarlanabiliyor; bu da gecikme/başarım dengesini yönetmeyi kolaylaştırıyor. Zincir-içi düşünme (CoT) çıktısına erişim, kurumsal doğrulama ve kalite güvence süreçleri için önemli bir kazanım sağlıyor. Yapılandırılmış çıktı (Structured Outputs) desteği, entegrasyonları sadeleştiriyor. Tüm bunlar, GPT-OSS’i ajan tabanlı iş akışları ve RAG sistemleri için cazip bir açık seçenek haline getiriyor.

Kurumsal Senaryolar: Veri Yerelliği, Maliyet ve Satın Alma Kararları

Finans, sağlık, telekom ve kamu gibi sektörlerde veri yerelliği ve uyumluluk öncelikleri nedeniyle self-host kurulumlar giderek değer kazanıyor. Açık-ağırlık, lisans ve dağıtım esnekliği sayesinde tedarik bağımlılığını azaltırken maliyet kontrolü sunabiliyor; ancak MLOps, izleme ve yükseltme sorumluluğu size geçiyor. API modelleri hâlâ “bakım maliyeti düşük” alternatifler sunarken, GPT-OSS özellikle kapalı ağlarda çalışan uygulamalar için avantajlı. Erken paydaş iş birlikleri ve geniş ekosistem desteği, kurumsal geçişi hızlandırıyor.

Rakiplerle Kısa Kıyas: Llama, Deepseek, Qwen ve Diğerleri

Sahada Meta’nın Llama serisi, DeepSeek’in akıl yürütme modelleri ve Alibaba’nın Qwen ailesi güçlü alternatifler sunuyor. GPT-OSS; lisans şartları, 128K bağlam penceresi ve MoE verimliliğiyle açık-ağırlık kulvarda üst segmentte konumlanıyor. Bazı kıyaslarda 120b, o4-mini’ye yaklaşırken; 20b, o3-mini’ye denk performans vererek “fiyat/performans” ekseninde cazip bir seçenek haline geliyor. Bağımsız değerlendirmeler, kimi görevlerde 20b’nin 120b’yi geçebildiğini, çok dilli yeteneklerde ise diğer açık modellerle rekabetin sürdüğünü belirtiyor. Karşılaştırmalı POC’ler, gerçek iş yükünüzde hangi modelin daha uygun olduğunu netleştirecektir.

Kaynaklar