Qwen 3.5 Small: 0.8B’den 9B’ye “az compute, çok akıl” iddiası
Alibaba Qwen, Qwen 3.5 Small serisini duyurdu: 0.8B’den 9B’ye dört küçük model, yerel multimodal yapı ve ölçekli RL ile geliyor.
Bir süredir yapay zeka tarafında ilginç bir tersine göç var: Herkesin dilinde “daha büyük model” var ama gerçek hayat “daha küçük, daha hızlı, daha ucuz” diye bağırıyor. Telefonun içinde çalışan asistan, müşteri hizmetlerinde aynı anda binlerce konuşmayı taşıyan bot, bir edge cihazında gecikmesiz görüntü yorumu… Bunların hepsi dev parametre sayılarından ziyade doğru optimizasyonu, doğru ölçeklemeyi ve doğru modeli istiyor. Tam da bu yüzden Alibaba’nın Qwen ekibinin paylaştığı Qwen 3.5 Small duyurusu, yalnızca yeni bir model serisi değil; 2026’nın model stratejisi tartışmasına net bir cümle gibi.
Qwen ekibi, X’teki duyurusunda Qwen 3.5 Small model serisini tanıtan paylaşımda dört farklı boyut söylüyor: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B ve Qwen3.5-9B. Bu sayılar, kabaca modelin parametre ölçeğine işaret ediyor ve aralarındaki fark günlük kullanımda sandığınızdan daha “fiziksel” bir karşılığa sahip: bellek tüketimi, gecikme, maliyet, hatta pil tüketimi gibi.
Duyurunun en çarpıcı kısmı “More intelligence, less compute” yani “daha fazla zekâ, daha az hesaplama” iddiası. Bu cümle artık pazarlama metni olmaktan çıkıp ürün gerekliliğine dönüşmüş durumda. Çünkü günün sonunda ekipler bir modeli yalnızca doğru cevap verdiği için değil, doğru cevapları sürdürülebilir bir bütçeyle verdiği için seçiyor. Mesela 9B bir model ile 0.8B bir model aynı işi yapamaz; ama “aynı işi” hangi işe indirgediğinize göre 0.8B bazen şaşırtıcı şekilde yeterli olabilir. Kısa metin sınıflandırma, basit özet, form doldurma, rutin müşteri soruları, cihaz içi komut yorumlama gibi işlerde hız ve maliyet çoğu zaman doğruluğun son yüzde 3’ünden daha değerli.
Qwen’in burada söylediği bir diğer kritik detay, küçük modellerin “aynı Qwen3.5 foundation” üzerinde kurulduğu. Bu tür ifadeler genelde iki şeyi ima eder. Birincisi, mimari ve eğitim tarifinin büyük ölçüde ortaklaştırıldığı; yani küçük modelin “kuzen” değil “aynı ailenin gerçek üyesi” olduğu. İkincisi de ekiplerin ürün entegrasyonunda tek bir ekosisteme yaslanabileceği. Bugün birçok şirketin yaşadığı sancı şu: Bir yerde büyük modeli kullanıyor, bir yerde küçük; prompt davranışları farklı, güvenlik ayarları farklı, araç çağırma (tool use) kabiliyetleri farklı. Eğer temel aynıysa, davranış tutarlılığı yakalamak daha kolay.
Paylaşımda özellikle “native multimodal” vurgusu da var. Yani multimodal yetenek sonradan yamalanmış bir özellik değil, modelin tasarımında ve eğitiminde yer alıyor. Bu, küçük modeller için ekstra önemli. Çünkü multimodal sistemleri küçültürken ilk kaybolan şeylerden biri genelde görsel anlama ya da görsel-işitsel bağlamı metinle tutarlı şekilde birleştirme becerisi oluyor. Qwen’in “yerel multimodal” demesi, en azından niyet seviyesinde, bu kaybı minimize etmeye oynadıklarını gösteriyor. Gerçek etkisini elbette pratikte; örneğin bir fotoğraftaki menüden sipariş çıkarma, bir ekran görüntüsünden form alanlarını anlamlandırma, ürün görselinden kısa açıklama üretme gibi senaryolarda göreceğiz.
Bir de “improved architecture, scaled RL” cümlesi var. Bu iki ifade, güncel model yarışının en gerçekçi bileşenlerini işaret ediyor. Mimari iyileştirme, aynı parametre sayısında daha iyi temsil gücü ve daha iyi verim demek. Ölçekli RL (buradaki RL çoğu zaman RLHF/RLAIF ailesini çağrıştırır), modelin “ham zeka”sından çok “ürün zekası”nı yükseltir: talimat takibi, gereksiz uzatmadan cevap verme, güvenli sınırlar, yanlış bildiğinde bunu yönetebilme gibi.
Serinin boyut kırılımı da bir ürün haritası gibi okunabilir. 0.8B ve 2B “tiny, fast” diye işaretlenmiş. Bu iki model, özellikle edge ve yüksek eşzamanlılık isteyen sunucu senaryolarına göz kırpıyor. 4B ve 9B ise genelde “küçük ama ciddi iş yapar” bandına girer; yani daha iyi muhakeme, daha tutarlı uzun cevaplar ve daha az halüsinasyon beklentisiyle tercih edilir. Pratikte bir startup’ın gün içindeki iki ihtiyacı bile farklı olabilir: Kullanıcı arayüzündeki hızlı otomasyonlar için 2B, rapor üretimi veya daha karmaşık destek akışları için 9B gibi.
Özetle Qwen 3.5 Small serisi, “model büyütelim” refleksine karşı “modeli akıllıca seçelim” çağrısı. Eğer Alibaba gerçekten aynı temel üzerinde tutarlı davranan, multimodal yetenekleri korunmuş, RL ile ürünleşmiş küçük modeller sunabiliyorsa, bu hem geliştiricinin maliyet hesabını değiştirir hem de kullanıcıların “AI her yerde” beklentisini daha gerçekçi hale getirir. 2026’da rekabetin büyük kısmı tek bir dev modelle değil, doğru işe doğru boyutta model seçebilen platformlarla kazanılacak gibi duruyor.
Yorumlar yalnızca üyelere açık. Saygılı ve yapıcı bir dil bekliyoruz.