In-Context Learning: Wie wenige Beispiele das Modellverhalten steuern
Few-Shot Learning bedeutet, dass das Modell durch wenige Input-Output-Beispiele im Prompt lernt, ein Muster zu erkennen und auf neue Inputs anzuwenden – ohne dass Parameter aktualisiert werden.
Attention erkennt die Struktur der Beispiele und wendet sie auf neue Inputs an.
Die Struktur der Beispiele ist wichtiger als inhaltliche Korrektheit (Min et al.).
Performance steigt schnell mit 1-5 Beispielen, dann plateaut sie.
Vergleich: Gleiches Format mit korrekten Labels vs. zufälligen Labels
Beobachtung: Accuracy steigt steil von 0-Shot → 1-Shot → 5-Shot, dann plateaut sie. Nach ~8-10 Beispielen bringt jedes weitere Beispiel wenig Verbesserung (Diminishing Returns).
Alle Beispiele müssen das gleiche Format haben (XML-Tags, JSON, Markdown).
Beispiele sollten die Vielfalt der erwarteten Eingaben abdecken.
Verwende XML/JSON zur klaren Demarkation von Input und Output.
Starte mit 1-3 Beispielen, teste bis max. 10.
Während Format wichtiger ist, sollten Labels trotzdem korrekt sein.
Hochwertige Beispiele eher am Anfang platzieren.