Member Content

Langdock Nutzungslimits ab April 2026

Zur Event Anmeldung
Download PDF

Langdock Nutzungslimits ab April 2026

Hand-out für Workspace-Admins, die mit der neuen Fair Usage Policy, Business Max und Extra Usage umgehen müssen.

TL;DR

  • Langdock hat das Nutzungsmodell überarbeitet: neue Fair Usage Policy mit Session- (5h) und Wochen-Fenster, neuer »Business Max«-Plan mit 5-fachen Limits und »Extra Usage« als Pay-as-you-go.
  • Wichtigste Botschaft an alle, die gerade verunsichert sind: Am Limit wird nicht gesperrt, sondern automatisch auf GPT-5.2 umgeroutet. Der Workflow läuft weiter. Bei Claude direkt wäre man am Limit komplett raus.
  • Vier Hebel zum Umgang: Modell-Strategie, Chat-Hygiene, Agents/Workflows, Admin-Stellschrauben. BYOK ist die Option für Heavy-Usage-Setups.
  • Empfohlene Reihenfolge: Default-Modell anpassen, Extra Usage aktivieren mit niedrigem Cap, 4 Wochen Daten sammeln, gezielt Power-User auf Business Max, erst dann BYOK evaluieren.

Was sich konkret geändert hat

  • Zwei Nutzungsfenster: Session-Fenster (5 Stunden, ab erster Nachricht) und Wochen-Fenster (Mo bis Mo, festes Reset jeden Montag).
  • Verbrauch nach Provider-Kosten gewichtet: Opus zieht typischerweise das 2- bis 3-fache eines Sonnet-Calls, Sonnet wiederum mehr als Haiku oder GPT-5.4 Mini.
  • Limit-Verhalten: Bei Session- oder Wochen-Limit routet Langdock automatisch auf GPT-5.2, bis das Fenster wieder freigegeben ist.
  • Spamschutz bleibt: 250 Nachrichten pro 3 Stunden, unabhängig vom Modell-Limit.
  • »Business Max«-Plan: 5-fache Limits gegenüber Standard-Business, Aufpreis pro Seat. Für Power-User vorgesehen.
  • »Extra Usage« (Pay-as-you-go): Admins können in Workspace-Settings, Usage einen Cap setzen (Default 1.000 EUR/Monat workspaceweit). Über das Limit hinaus wird zu API-Preisen plus Aufschlag abgerechnet, einzelner Posten auf der Monatsrechnung.
  • Usage Requests: User, die ans Limit kommen, können direkt aus dem Chat eine Erhöhung anfragen. Admin sieht das in der Inbox und kann upgraden, individuelles Limit setzen oder ablehnen.
  • BYOK (Bring Your Own Key): als Alternative weiterhin verfügbar. Reduzierte Seat-Lizenz, Modell-Kosten direkt zwischen Workspace und Anbieter.

Hintergrund: Warum hat Langdock umgestellt?

Der Token-Verbrauch der Modelle ist in den letzten Monaten massiv gestiegen: längeres Thinking, mehr Tool-Calls, größere Kontextfenster. Die Token-Preise der Anbieter sind dabei nicht mitgesunken. Das ist nicht Langdock-spezifisch: Github Copilot ist gerade auf usage-based umgestiegen, Anthropic verkauft den Enterprise-Chat nur noch mit Usage-Pricing. Es wird bei allen Anbietern teurer, Langdock zieht jetzt nach.

Die vier Hebel im Detail

1. Modell-Strategie: Drei-Stufen-Mental-Modell

Statt eines pauschalen Defaults oder eines generischen »bitte sparsam sein« empfehlen wir ein klares Drei-Stufen-Modell, das ihr als einseitiges Cheat-Sheet im Team verteilt:

  • Routine-Aufgaben (Zusammenfassen, Mails entwerfen, Klassifizieren): Haiku 4.5 oder GPT-5.4 Mini.
  • Tagesgeschäft (Standard-Chats, Recherche, Texte): Sonnet 4.6.
  • Hochwertiger Output (Strategie, Nuance, Code-Architektur): Opus 4.7.

Zwei Ergänzungen: Den Thinking-Toggle (direkt im Modell-Selektor) nur aktivieren, wenn die Aufgabe wirklich Reasoning braucht, er produziert längere Antworten und zieht mehr Token. Und für reine Recherche oder Web-Suche ist GPT-5.4 oft günstiger und qualitativ vergleichbar zu Opus. Opus glänzt bei Sprache und Nuance, da rechtfertigt der Mehrverbrauch sich.

2. Chat-Hygiene

  • Neuen Chat starten: Bei Themenwechsel oder spätestens nach 10 bis 15 Turns. Die komplette Historie geht bei jedem Turn als Input ins Modell, Input-Tokens wachsen linear mit der Chat-Länge. Prompt-Caching mildert den Effekt (gecachter Input ist deutlich günstiger), hebt ihn aber nicht auf.
  • Custom Instructions / Unternehmensbeschreibung schlank halten: Sie sind Teil jedes Turns als System-Prompt. Prompt-Caching reduziert den Token-Effekt deutlich, aber lange Instructions schmälern das verfügbare Kontextfenster und können die Antwortqualität verschlechtern (Instruction Overload). Auf das Wesentliche fokussieren.
  • Anhänge gezielt: Nicht ganze 50-MB-PDFs hochladen, sondern relevante Sektionen. Oder: in einen Ordner packen und semantisch suchen lassen statt vollständig in den Kontext zu schieben.
  • Output-Länge bewusst begrenzen: »max. 5 Bullets«, »in 100 Wörtern« etc. spart Tokens und macht die Antwort meistens auch besser.

3. Agents als Hebel

  • Spezialisierte Agents statt Allround-Bots: Lieber fünf Agents mit kleinem, fokussiertem Wissen als einer, der alles kann. Kleinerer Kontext bedeutet niedrigeren Verbrauch und gleichzeitig bessere Antworten.
  • Subagent-Architektur für mehrstufige Aufgaben: Ein übergeordneter Agent ruft spezialisierte Subagents mit isoliertem Kontext auf. Spart deutlich Token im Vergleich zu einer 50-Turn-Konversation, in der der ganze Kontext mitgeschleppt wird.
  • Workflows zählen nicht aufs Session- oder Wochen-Limit: Was deterministisch genug läuft (Reporting, Datenextraktion, Standard-Klassifikation), gehört in einen Workflow, nicht in einen Agent-Chat.
  • Custom Models hinzufügen: Über Settings, Models, Adding Models lassen sich einzelne Zusatz-Modelle per eigenem API-Key ergänzen. Sie laufen zu Provider-Tarif und zählen nicht aufs Fair-Usage-Limit, ein gezielter Entlastungs-Hebel ohne workspace-weite BYOK-Umstellung.
  • Ordner statt Datei-Anhänge: Statt komplette Dokumente an einen Agenten zu hängen, lieber in einen Library-Ordner legen, bis 1.000 Dateien, Embedding- und Vektor-Suche, nur die relevanten Chunks landen im Kontext. Für SharePoint- oder Drive-Bestände: Folder Sync nutzen, bis 200 Files pro Ordner, tägliche automatische Aktualisierung. Beides spart Kontext gegenüber Full-Document-Uploads.

4. Admin-Stellschrauben

  • Extra Usage aktivieren, aber niedrig gedeckelt starten: Workspace-Settings, Usage, »Enable extra usage«. Default sind 1.000 EUR/Monat workspaceweit. Empfehlung: bei Aktivierung erstmal auf 200 bis 300 EUR runterschrauben, nach 4 Wochen anhand der Usage Exports kalibrieren. Damit fangen Power-User die Limit-Frustration ab, ohne dass die Kosten weglaufen.
  • »Allow usage requests« anlassen: Wenn jemand ans Limit kommt, kann er direkt aus dem Chat eine Erhöhung anfragen. Admin bekommt E-Mail plus Inbox-Ticket. Ist die beste Datenbasis dafür, wer wirklich Power-User ist und wer seinen Workflow optimieren sollte.
  • Per-User-Limits: Pro-User-Budgets (Standard, Unbegrenzt, individueller Betrag) lassen sich in der Admin-Console steuern, um Heavy-User abzufangen, ohne den Workspace-Cap zu sprengen.
  • 1 bis 5 Heavy-User auf Business Max ziehen: 5-fache Limits, Aufpreis pro Seat. Ergibt sich nach 4 Wochen aus den Usage-Daten, wer wirklich in diese Kategorie fällt.
  • Nach 4 Wochen Usage Exports auswerten: Lizenzstruktur sauber kalibrieren, nicht auf Verdacht umplanen.

Empfohlene Reihenfolge der Maßnahmen

  1. Default-Modell anpassen und Drei-Stufen-Cheat-Sheet ans Team verteilen.
  2. Extra Usage aktivieren mit Workspace-Cap 200 bis 300 EUR/Monat.
  3. »Allow usage requests« anlassen und 4 Wochen Daten sammeln.
  4. Echte Heavy-User identifizieren und 1 bis 5 auf Business Max ziehen.
  5. Erst danach BYOK evaluieren, falls Kosten weiter dominieren oder Heavy-Use-Cases steigen.
Futuristisches, abstraktes Keyvisual in Blau- und Rosatönen, das eine moderne, energiegeladene Atmosphäre schafft.
Melde dich an um diese Masterclass zu schauen
Das könnte Dich auch interessieren:

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Timo Springer
Co-Founder DECAID Studio

KI-Experte und DECAID-Co-Founder, macht Menschen und Unternehmen fit für den praktischen KI-Einsatz. Mit 8.500+ LinkedIn-Followern, seinem Newsletter "Artificial Teams" (3.400+ Abonnenten) und über 100 KI-Workshops und -Bootcamps (NPS >80) hat er sich als Vermittler zwischen komplexer KI-Technologie und konkreter Anwendung etabliert. Zu seinen Referenzkunden zählen namhafte Marken wie Mercedes-Benz, Beiersdorf und Warner Bros. sowie renommierte Agenturen wie Jung von Matt und thjnk.

Mehr von diesem Autor:
Agent First: Was deine digitale Infrastruktur 2026 können muss
Langdock Guide 2026: So setzt du das KI-Betriebssystem für dein Unternehmen auf
Langdock vs. ChatGPT: Der ehrliche Vergleich für DACH-Unternehmen
Update zu unserem Langdock-Guide