KTUN · YAZGİT Community

Türkçe için State Space modelleri geliştiriyoruz

Mamba & Jamba mimarilerini Türkçe'ye uyarlayan açık kaynak araştırma ekibi.
130M'den 3B'ye — her ölçekte Türkçe dil modeli.

Modelleri Keşfet
Scroll
3
Açık Kaynak Model
3B+
En Büyük Model
~120M
Eğitim Token
3
Araştırmacı
Ne yapıyoruz?

Modeller

Mamba 130M, 370M ve Jamba2 3B — Türkçe SSM model ailesi

Araştırma

Temel aldığımız açık kaynak akademik kağıtlar

Takım

LinguAI ekibi — KTUN & YAZGİT topluluğu

Yol Haritası

Tamamlanan ve planlanan adımlar

Türkçe SSM model ailesi
Mamba ve Jamba mimarilerini Türkçe continued pretraining ile uyarlıyoruz. Tüm modeller Apache 2.0 lisansı ile açık kaynak.
🟢 RELEASED

Mamba 130M Turkish

State Space Model · Selective SSM

state-spaces/mamba-130m-hf üzerine Türkçe continued pretraining. ~400MB Türkçe metin, ~80-120M token ile eğitildi. Hafif ve hızlı — fine-tuning için ideal başlangıç noktası.

Parametre130M
TensorF32
DonanımRTX 4060 Laptop
LisansApache 2.0
HuggingFace'de Görüntüle →
🟢 RELEASED

Mamba 370M Turkish

State Space Model · Selective SSM

130M'nin büyük kardeşi. Embedding uyumsuzluk sorunu bu modelde çözüldü. Türkçe akıcılık ve gramer tarafı güçlü — mantıksal tutarlılık için dataset iyileştirmeleri devam ediyor.

Parametre371.5M
RAM2,529 MB
Hız (CPU)1.15 tok/s
LisansApache 2.0
HuggingFace'de Görüntüle →
⚡ FLAGSHIP

Jamba2 3B Turkish

Hybrid SSM + Attention · Jamba Architecture

Takımın amiral gemisi. SSM ve Attention katmanlarını birleştiriyor — hem uzun bağlam hem güçlü anlama. 3B parametre ile Türkçe'nin en büyük SSM tabanlı modeli. 1.8x daha hızlı inference.

Parametre3,039.8M (3B)
RAM14,216 MB
Hız (CPU)2.11 tok/s
LisansApache 2.0
HuggingFace'de Görüntüle →
Uçtan uca AI altyapısı
Model eğitiminden deployment'a, her katmanda mühendislik desteği sunuyoruz.

Continued Pretraining

İngilizce base modelleri Türkçe'ye uyarlama. Tokenizer optimizasyonu, dataset temizliği ve embedding düzeltmeleriyle kaliteli adaptasyon.

3 model yayınlandı — 130M → 3B

Hybrid Mimari Araştırma

SSM + Attention birleşimi ile hem lineer inference hem güçlü reasoning. Jamba mimarisini Türkçe'ye ilk uyarlayan ekip.

Jamba2 3B — 1.8x hız artışı

Dataset Pipeline

Mevcut modeller ~400MB kazılmış Türkçe veri ile eğitildi. Yeni nesil modeller için GitHub üzerinden 300GB ham veri toplandı ve filtrelendi — MC4 ve OSCAR kaynaklarından tekrarsız birleştirilmiş ~67 milyon satırlık Türkçe veri seti hazırlandı.

Mevcut: ~400MB · Yeni veri seti: 300GB → 67M satır
Veri Setini İncele →

Açık Kaynak & Topluluk

Tüm modeller Apache 2.0 ile HuggingFace'de yayında. Fine-tuning rehberleri, bug raporları ve topluluk katkılarına açık.

Apache 2.0 — Ticari kullanıma uygun
Gerçek dünya benchmark'ları
CPU üzerinde yapılan bağımsız testler — Mamba 370M vs Jamba2 3B karşılaştırması.

Inference Hızı (tok/s)

CPU MODU — DAHA YÜKSEK DAHA İYİ
1.15 Mamba 370M 2.11 Jamba2 3B +83% hızlı

Ortalama Yanıt Süresi (saniye)

CPU MODU — DAHA DÜŞÜK DAHA İYİ
52.9s Mamba 370M 28.6s Jamba2 3B -46% süre

Kalite Puanları (5 üzerinden)

TÜRKÇE DOĞRULUK · KONU UYGUNLUĞU · TEKRAR SKORU · ANLAM TUTARLILIĞI
Türkçe 4.0 4.7 Konu 1.3 3.0 Tekrar 1.3 2.3 Anlam 1.0 1.7 Genel: 1.9 / 5 Genel: 2.9 / 5
Mamba 370M Turkish
Jamba2 3B Turkish

RAM Kullanımı

CPU MODU — FLOAT32
2.5 GB Mamba 370M 14.2 GB Jamba2 3B

Genel Kalite Skoru

5 ÜZERİNDEN — DAHA YÜKSEK DAHA İYİ
1.9 /5 Mamba 370M 2.9 /5 Jamba2 3B
CPU: Intel Core Ultra 7 255HX
RAM: 30.8 GB
GPU: Yok (CPU modu)
Python: 3.12.3
Torch: 2.11.0+cpu
Tarih: 2026-03-24
Modellerimiz vs Açık Kaynak Ekosistem
40+ model arasından ikisini seçin, özelliklerini yan yana kıyaslayın.
VS

* LinguAI modelleri Türkçe odaklı continued pretraining modelleridir. Türkçe performansı diğer modellere kıyasla avantajlıdır. Orijinal Mamba modelleri İngilizce base modellerdir.

Katkıda bulunmak ister misiniz?

Modellerimiz açık kaynak. Fine-tuning denemeleri, bug raporları ve dataset katkıları her zaman hoş karşılanır.

HuggingFace'e Git