Published on

Microsoft, GPT-4o'yu Geride Bırakan Güçlü Phi-4 Modelini Açık Kaynak Olarak Yayınladı

Yazarlar
  • avatar
    Ad
    Ajax
    Twitter

Microsoft Araştırma, yakın zamanda en son küçük parametreli modeli olan Phi-4'ü açık kaynak olarak yayınladı. Bu model, dikkat çekici performansıyla büyük ilgi gördü. Phi-4, yalnızca 14 milyar parametreye sahip olmasına rağmen, birçok benchmark testinde OpenAI'ın GPT-4o'sunu ve Qwen 2.5-14B ile Llama-3.3-70B gibi diğer benzer üst düzey açık kaynak modellerini geride bırakarak şaşırtıcı sonuçlar elde etti.

Daha spesifik testlerde, Phi-4, Amerikan Matematik Yarışması (AMC)'de 91.8 gibi mükemmel bir skor elde ederek Gemini Pro 1.5 ve Claude 3.5 Sonnet gibi birçok tanınmış açık ve kapalı kaynak modeli geride bıraktı. Genel performansı, 405 milyar parametreye sahip olan Llama-3.1 ile bile karşılaştırılabilir düzeyde.

Bu gelişme, toplulukta büyük yankı uyandırdı. Daha önce bazı kullanıcılar, Hugging Face'e korsan Phi-4 ağırlıklarını yüklemişti. Şimdi ise Microsoft, Phi-4'ü resmi olarak açık kaynak yaparak MIT lisansı altında ticari kullanıma izin veriyor. Açık kaynak adresi: phi-4

Hugging Face de Phi-4'ün açık kaynak olarak yayınlanmasını kutladı, bu da modelin etkisini gösteriyor.

Phi-4'ün Temel Avantajları: Sentetik Veri ve Detaylı Eğitim

Phi-4'ün bu kadar küçük bir parametre sayısıyla bu kadar üstün sonuçlar elde etmesinin nedeni, yüksek kaliteli sentetik verinin önemli bir rol oynamasıdır. Geleneksel web tarama verileriyle karşılaştırıldığında, sentetik veriler daha yapılandırılmış ve kademeli öğrenme materyalleri sağlayarak modelin dilin mantığını ve akıl yürütme süreçlerini daha verimli öğrenmesine yardımcı olur.

  • Yapılandırılmış Öğrenme: Sentetik veriler, matematik problemlerinin çözümlerinde olduğu gibi, adım adım sunulabilir. Bu, modelin problem yapısını ve çözüm yöntemlerini daha iyi anlamasına yardımcı olur.
  • Bağlam Hizalanması: Sentetik veriler, modelin akıl yürütme bağlamıyla daha iyi hizalanabilir ve gerçek uygulamalarda modelin üretmesi gereken çıktı biçimlerine daha yakın olabilir. Örneğin, internet forumlarındaki gerçek bilgiler, büyük model etkileşimlerine benzer bir tarzda yeniden yazılarak, bu bilgilerin model tarafından oluşturulan konuşmalarda daha doğal ve mantıklı görünmesi sağlanır.

Phi-4'ün sentetik veri üretimi aşağıdaki ilkelere dayanmaktadır:

  1. Çeşitlilik
  2. İncelik ve Karmaşıklık
  3. Doğruluk
  4. Akıl Yürütme Zinciri

Bu ilkeler, sentetik verilerin kalitesini garanti eder ve 50'den fazla farklı türde sentetik veri kümesini kapsar. Microsoft, çok aşamalı istem süreçleri, tohum planlaması, yeniden yazma ve geliştirme, kendi kendini düzeltme gibi çeşitli yöntemlerle yaklaşık 400 milyar ağırlıksız token üretmiştir.

Sentetik verilere ek olarak, Phi-4 organik verileri de titizlikle eleyerek filtreledi. Web içeriği, lisanslı kitaplar ve kod depoları gibi çeşitli kaynaklardan veri toplayarak iki aşamalı bir filtreleme sürecinden geçirdi ve yüksek eğitim değeri ve derin akıl yürütme yeteneğine sahip tohum verileri çıkardı. Bu tohum verileri, sentetik veri üretimi için temel oluştururken aynı zamanda doğrudan ön eğitimde kullanılarak modelin bilgi birikimini daha da zenginleştirdi.

Filtreleme sürecinde, Microsoft, geniş ölçekli web verilerinden yüksek kaliteli belgeleri seçmek için küçük sınıflandırıcı tabanlı bir filtreleme yöntemi kullandı ve Almanca, İspanyolca, Fransızca, Portekizce, İtalyanca, Hintçe ve Japonca dahil olmak üzere çeşitli dilleri işleyebilmesini sağlamak için çok dilli veriler için özel bir işlem uyguladı.

Phi-4'ün Eğitim Süreci

Phi-4'ün ön eğitimi, ağırlıklı olarak sentetik veriler kullanılarak yapıldı ve az miktarda yüksek kaliteli organik veriyle desteklendi. Bu veri karışımı stratejisi, modelin akıl yürütme ve problem çözme becerilerini öğrenirken zengin bilgi içeriğini de özümsemesini sağladı.

Orta eğitim aşamasında, Phi-4, uzun metinleri işleme yeteneğini artırmak için bağlam uzunluğunu 4096'dan 16384'e çıkardı. Bu, yüksek kaliteli sentetik olmayan veri kümelerinden seçilen 8K'dan uzun bağlam örneklerini ve yeni oluşturulan 4K dizisi gereksinimlerini karşılayan sentetik veri kümelerini içeriyordu.

Son eğitim aşaması, Phi-4'ün optimizasyonu için kritik önem taşıyor. Microsoft, denetimli ince ayar (SFT) ve doğrudan tercih optimizasyonu (DPO) tekniklerini kullandı.

  • SFT Aşaması: Farklı alanlardan yüksek kaliteli verilerden üretilen yaklaşık 8 milyar token kullanılarak ön eğitimli model, 10^-6'lık bir öğrenme oranıyla ince ayarlandı ve tüm veriler chatml formatında olmak üzere 40 dilde çok dilli veriler eklendi.
  • DPO Tekniği: Modelin çıktısını, insan tercihlerine daha uygun hale getirmek için tercih verileri oluşturularak ayarlandı. Microsoft ayrıca, modelin cevaplarının doğruluğu üzerinde önemli etkisi olan anahtar tokenleri belirleyen ve bu tokenler için tercih verileri oluşturan anahtar token arama (PTS) teknolojisini de tanıttı, böylece modelin akıl yürütme görevlerindeki performansı artırıldı.

Phi-4'ün Performans Değerlendirmesi

Microsoft, Phi-4'ün performansını değerlendirmek için çeşitli benchmark testlerinde testler yaptı. MMLU, GPQA, MATH, HumanEval gibi akademik benchmark testlerinde Phi-4, olağanüstü bir performans sergiledi.

MMLU testinde 84.8 gibi yüksek bir skor elde etti. GPQA ve MATH testlerinde ise GPT-4o'yu bile geride bıraktı ve matematik yarışmalarıyla ilgili görevlerde güçlü akıl yürütme yeteneği gösterdi. Benzer ölçekteki ve daha büyük ölçekteki diğer modellerle karşılaştırıldığında, Phi-4, 12 benchmark testinin 9'unda benzer açık kaynak modeli olan Qwen-2.5-14B-Instruct'tan daha iyi performans gösterdi.