Task-Typ wählen
Temperature
0.3
Niedrig = Deterministisch | Hoch = Zufällig
Top-K
0
0 = Deaktiviert | >50 = Offen
Top-P (Nucleus)
0.9
Adaptive Nucleus Sampling
Wahrscheinlichkeitsverteilung für nächsten Token
Fig. 1 | Grüne Balken zeigen Tokens die vom Modell in Betracht gezogen werden. Bei hohem Temperature wird die Verteilung flacher (mehr Diversität). Bei hohem Top-K/Top-P werden schwache Kandidaten gefiltert.
📋 Aktuelle Empfehlung
Für QA & Facts:
Nutze Temperature 0.1-0.3 (konzentriert auf Top-Logits), Top-K=0 (deaktiviert), Top-P=0.9 (optional, meist unnötig bei niedriger Temp). Ergebnis: Genaue, konsistente Antworten. Ideal für Knowledge-intensive Tasks.
Task-Typ Temperature Top-K Top-P Use Case Output-Stil
QA & Facts 0.1-0.3 0 0.9 News, Wikipedia-Style Antworten Präzise, Deterministisch
General Chat 0.7-0.9 50 0.95 Normale Konversation, Balanced Natural, Varied
Creative Writing 1.2-1.5 100 0.98 Storytelling, Brainstorming Kreativ, Überraschend
Coding 0.2-0.5 20 0.95 Code Generation, Debugging Korrekt, Syntaktisch
Summarization 0.3-0.6 0 0.9 Text-Zusammenfassung Konzis, Fokussiert
🌡️
Temperature skaliert Logits
P(x_i) = exp(z_i/T) / Σ. T→0: konvergiert zu argmax (Greed). T>1: flacht ab (mehr Randomness). Top Choice: T=0.7 für Balance.
🔪
Top-K ist einfach aber hart
Behält nur k wahrscheinlichste Tokens. Problem: k=50 kann gut sein (viel Auswahl) oder schlecht (zu viel Noise). Adaptive Alternative: Top-P.
📊
Top-P (Nucleus) ist adaptiv
Behält Tokens bis kumulative Wahrscheinlichkeit ≥ P. Bei hoher Konfidenz: kleiner Nucleus (1-2 Token). Bei Unsicherheit: größer (10+ Token). Meist besser als Top-K.
⚖️
Kombination ist wichtig
Nutze selten Top-K und Top-P zusammen (redundant). Standard: Temperature + (Top-P OR Top-K). Top-P ist moderne Empfehlung.
🎯
Niedriges T braucht kein Top-K
Bei T=0.3 ist Softmax konzentriert, Top-K/Top-P meist unnötig. Bei T=1.0+ braucht Top-P um Noise zu filtern.
🧪
Keine universellen Werte
Modelle haben verschiedene Baseline-Logits. GPT-4: T=0.5. Llama: T=0.8. Teste deine Kombination mit echten Prompts.