0 Modelle gesamt
0 Angezeigt
Modell Parameter Kontext Lizenz Attention Reasoning Multimodal Sparse Kosten Release MMLU HumanEval

Keine Modelle gefunden. Versuche eine andere Suche oder Filter-Kombination.

Open Open Source Lizenz
Closed Proprietär/Kommerziell
Research Research Preview

📊 Visualisierungen: Modell-Evolution

Parameter vs. Context Window

Modell-Timeline 2024-2025

Feature-Adoption 2025

📌 Insights: LLM-Trends 2024-2025

🚀
Reasoning Emergence

DeepSeek-R1 (Jan 2025) zeigte, dass Chain-of-Thought-Reasoning emergent während GRPO-Training lernen kann. Alle Major Labs folgen jetzt dem Reasoning-First Ansatz.

💭
Effort Parameter

Claude 4.5 (Nov 2025) führt „Effort" Parameter ein: User kontrolliert direkt Denk-Zeit und Genauigkeit. Ermöglicht Dual-Mode (Fast + Deep) in einem Modell.

🎨
Early Fusion Multimodal

Llama 4 + Claude 4.5 nutzen Early Fusion: Text und Vision Tokens zusammen im LLM. Ermöglicht echte cross-modale Reasoning, nicht nur Bild→Text.

Sparse Attention Production

DeepSeek-V3.2 (Dez 2025) setzt Sparse Attention im Production ein: 60% Speicher-Einsparung, 4-5× schneller bei gleicher Qualität bis 1M+ Token Context.

📋
Spezialisierte Benchmarks

Neue Benchmarks (ThinkBench, ELAIPBench) zeigen: Reasoning-Fähigkeit ist separat von Knowledge-Fähigkeit. Manche Modelle zeichnen sich nur in Reasoning aus.

💰
Cost-Performance Tradeoff

DeepSeek-V3.2 bricht das Pricing-Modell: 75% günstiger als Claude/GPT bei vergleichbarer Performance. Sparse Attention + MoE Routing ermöglichen Kostenreduktion.