Langdock Nutzungslimits ab April 2026
Zur Event Anmeldung
Download PDF
Langdock Nutzungslimits ab April 2026
Hand-out für Workspace-Admins, die mit der neuen Fair Usage Policy, Business Max und Extra Usage umgehen müssen.
TL;DR
- Langdock hat das Nutzungsmodell überarbeitet: neue Fair Usage Policy mit Session- (5h) und Wochen-Fenster, neuer »Business Max«-Plan mit 5-fachen Limits und »Extra Usage« als Pay-as-you-go.
- Wichtigste Botschaft an alle, die gerade verunsichert sind: Am Limit wird nicht gesperrt, sondern automatisch auf GPT-5.2 umgeroutet. Der Workflow läuft weiter. Bei Claude direkt wäre man am Limit komplett raus.
- Vier Hebel zum Umgang: Modell-Strategie, Chat-Hygiene, Agents/Workflows, Admin-Stellschrauben. BYOK ist die Option für Heavy-Usage-Setups.
- Empfohlene Reihenfolge: Default-Modell anpassen, Extra Usage aktivieren mit niedrigem Cap, 4 Wochen Daten sammeln, gezielt Power-User auf Business Max, erst dann BYOK evaluieren.
Was sich konkret geändert hat
- Zwei Nutzungsfenster: Session-Fenster (5 Stunden, ab erster Nachricht) und Wochen-Fenster (Mo bis Mo, festes Reset jeden Montag).
- Verbrauch nach Provider-Kosten gewichtet: Opus zieht typischerweise das 2- bis 3-fache eines Sonnet-Calls, Sonnet wiederum mehr als Haiku oder GPT-5.4 Mini.
- Limit-Verhalten: Bei Session- oder Wochen-Limit routet Langdock automatisch auf GPT-5.2, bis das Fenster wieder freigegeben ist.
- Spamschutz bleibt: 250 Nachrichten pro 3 Stunden, unabhängig vom Modell-Limit.
- »Business Max«-Plan: 5-fache Limits gegenüber Standard-Business, Aufpreis pro Seat. Für Power-User vorgesehen.
- »Extra Usage« (Pay-as-you-go): Admins können in Workspace-Settings, Usage einen Cap setzen (Default 1.000 EUR/Monat workspaceweit). Über das Limit hinaus wird zu API-Preisen plus Aufschlag abgerechnet, einzelner Posten auf der Monatsrechnung.
- Usage Requests: User, die ans Limit kommen, können direkt aus dem Chat eine Erhöhung anfragen. Admin sieht das in der Inbox und kann upgraden, individuelles Limit setzen oder ablehnen.
- BYOK (Bring Your Own Key): als Alternative weiterhin verfügbar. Reduzierte Seat-Lizenz, Modell-Kosten direkt zwischen Workspace und Anbieter.
Hintergrund: Warum hat Langdock umgestellt?
Der Token-Verbrauch der Modelle ist in den letzten Monaten massiv gestiegen: längeres Thinking, mehr Tool-Calls, größere Kontextfenster. Die Token-Preise der Anbieter sind dabei nicht mitgesunken. Das ist nicht Langdock-spezifisch: Github Copilot ist gerade auf usage-based umgestiegen, Anthropic verkauft den Enterprise-Chat nur noch mit Usage-Pricing. Es wird bei allen Anbietern teurer, Langdock zieht jetzt nach.
Die vier Hebel im Detail
1. Modell-Strategie: Drei-Stufen-Mental-Modell
Statt eines pauschalen Defaults oder eines generischen »bitte sparsam sein« empfehlen wir ein klares Drei-Stufen-Modell, das ihr als einseitiges Cheat-Sheet im Team verteilt:
- Routine-Aufgaben (Zusammenfassen, Mails entwerfen, Klassifizieren): Haiku 4.5 oder GPT-5.4 Mini.
- Tagesgeschäft (Standard-Chats, Recherche, Texte): Sonnet 4.6.
- Hochwertiger Output (Strategie, Nuance, Code-Architektur): Opus 4.7.
Zwei Ergänzungen: Den Thinking-Toggle (direkt im Modell-Selektor) nur aktivieren, wenn die Aufgabe wirklich Reasoning braucht, er produziert längere Antworten und zieht mehr Token. Und für reine Recherche oder Web-Suche ist GPT-5.4 oft günstiger und qualitativ vergleichbar zu Opus. Opus glänzt bei Sprache und Nuance, da rechtfertigt der Mehrverbrauch sich.
2. Chat-Hygiene
- Neuen Chat starten: Bei Themenwechsel oder spätestens nach 10 bis 15 Turns. Die komplette Historie geht bei jedem Turn als Input ins Modell, Input-Tokens wachsen linear mit der Chat-Länge. Prompt-Caching mildert den Effekt (gecachter Input ist deutlich günstiger), hebt ihn aber nicht auf.
- Custom Instructions / Unternehmensbeschreibung schlank halten: Sie sind Teil jedes Turns als System-Prompt. Prompt-Caching reduziert den Token-Effekt deutlich, aber lange Instructions schmälern das verfügbare Kontextfenster und können die Antwortqualität verschlechtern (Instruction Overload). Auf das Wesentliche fokussieren.
- Anhänge gezielt: Nicht ganze 50-MB-PDFs hochladen, sondern relevante Sektionen. Oder: in einen Ordner packen und semantisch suchen lassen statt vollständig in den Kontext zu schieben.
- Output-Länge bewusst begrenzen: »max. 5 Bullets«, »in 100 Wörtern« etc. spart Tokens und macht die Antwort meistens auch besser.
3. Agents als Hebel
- Spezialisierte Agents statt Allround-Bots: Lieber fünf Agents mit kleinem, fokussiertem Wissen als einer, der alles kann. Kleinerer Kontext bedeutet niedrigeren Verbrauch und gleichzeitig bessere Antworten.
- Subagent-Architektur für mehrstufige Aufgaben: Ein übergeordneter Agent ruft spezialisierte Subagents mit isoliertem Kontext auf. Spart deutlich Token im Vergleich zu einer 50-Turn-Konversation, in der der ganze Kontext mitgeschleppt wird.
- Workflows zählen nicht aufs Session- oder Wochen-Limit: Was deterministisch genug läuft (Reporting, Datenextraktion, Standard-Klassifikation), gehört in einen Workflow, nicht in einen Agent-Chat.
- Custom Models hinzufügen: Über Settings, Models, Adding Models lassen sich einzelne Zusatz-Modelle per eigenem API-Key ergänzen. Sie laufen zu Provider-Tarif und zählen nicht aufs Fair-Usage-Limit, ein gezielter Entlastungs-Hebel ohne workspace-weite BYOK-Umstellung.
- Ordner statt Datei-Anhänge: Statt komplette Dokumente an einen Agenten zu hängen, lieber in einen Library-Ordner legen, bis 1.000 Dateien, Embedding- und Vektor-Suche, nur die relevanten Chunks landen im Kontext. Für SharePoint- oder Drive-Bestände: Folder Sync nutzen, bis 200 Files pro Ordner, tägliche automatische Aktualisierung. Beides spart Kontext gegenüber Full-Document-Uploads.
4. Admin-Stellschrauben
- Extra Usage aktivieren, aber niedrig gedeckelt starten: Workspace-Settings, Usage, »Enable extra usage«. Default sind 1.000 EUR/Monat workspaceweit. Empfehlung: bei Aktivierung erstmal auf 200 bis 300 EUR runterschrauben, nach 4 Wochen anhand der Usage Exports kalibrieren. Damit fangen Power-User die Limit-Frustration ab, ohne dass die Kosten weglaufen.
- »Allow usage requests« anlassen: Wenn jemand ans Limit kommt, kann er direkt aus dem Chat eine Erhöhung anfragen. Admin bekommt E-Mail plus Inbox-Ticket. Ist die beste Datenbasis dafür, wer wirklich Power-User ist und wer seinen Workflow optimieren sollte.
- Per-User-Limits: Pro-User-Budgets (Standard, Unbegrenzt, individueller Betrag) lassen sich in der Admin-Console steuern, um Heavy-User abzufangen, ohne den Workspace-Cap zu sprengen.
- 1 bis 5 Heavy-User auf Business Max ziehen: 5-fache Limits, Aufpreis pro Seat. Ergibt sich nach 4 Wochen aus den Usage-Daten, wer wirklich in diese Kategorie fällt.
- Nach 4 Wochen Usage Exports auswerten: Lizenzstruktur sauber kalibrieren, nicht auf Verdacht umplanen.
Empfohlene Reihenfolge der Maßnahmen
- Default-Modell anpassen und Drei-Stufen-Cheat-Sheet ans Team verteilen.
- Extra Usage aktivieren mit Workspace-Cap 200 bis 300 EUR/Monat.
- »Allow usage requests« anlassen und 4 Wochen Daten sammeln.
- Echte Heavy-User identifizieren und 1 bis 5 auf Business Max ziehen.
- Erst danach BYOK evaluieren, falls Kosten weiter dominieren oder Heavy-Use-Cases steigen.

0 Comments
Login or Register to Join the Conversation
Create an AccountLog in