Hallo! Ich bin der Lifecycle Bot. Stelle mir eine Frage zum Lifecycle Management System.
Was passiert beim Kickoff der Praxisphase 1?
Wie melde ich mich zur Abschlussarbeit an?
Was ist die Erstsemestereinführung?
Welche Dokumente brauche ich für die Immatrikulation?
Was ist die Projektmesse?
Wie funktioniert der Reflexionsworkshop in PP1?
Wie funktioniert das?
Context Window
Prüfe Status...
Modell:gpt-oss:120b
Thinking:
0 / 120.000 tokens0%
Noch 2 Fragen, dann wird History gekürzt
Hier erhältst du Einblicke in die Funktionsweise des Bots.
Was ist der Context Window?
💡 Das "Gedächtnis" des Bots
Der Context Window ist wie das Kurzzeitgedächtnis des Bots.
Er zeigt an, wie viel von den 120.000 verfügbaren Tokens bereits genutzt wird.
🔢 Was sind Tokens?
Tokens sind die "Gedächtnis-Einheiten" eines LLMs (Large Language Models).
Ein Token entspricht ungefähr 4 Zeichen. Der Satz "Hallo Welt" sind etwa 3 Tokens.
📊 Was wird gezählt?
Deine Fragen – Jede Nachricht verbraucht Tokens
Bot-Antworten – Die Antworten des Bots
Knowledge Base Daten – Wenn der Bot Informationen abruft
System-Instruktionen – Die Anweisungen, wie der Bot sich verhalten soll
⚠️ Was passiert bei 100%?
Wenn der Context Window voll ist, muss der Bot "vergessen" –
ältere Nachrichten werden aus dem Gedächtnis entfernt, um Platz für neue zu schaffen.
Das ist eine der größten Herausforderungen bei der Arbeit mit LLMs!
🎓 Interesse geweckt?
Solche Themen lernst du im Informatik-Studium! Von Natural Language Processing
über Machine Learning bis hin zu praktischen KI-Anwendungen.