
Member Content
2010 hat Google "Mobile First" ausgerufen. Wer seine Website nicht für Smartphones optimiert hat, wurde abgestraft. Die Logik war simpel: Wenn die Hälfte deiner Nutzer über Mobilgeräte kommt, muss deine Infrastruktur das können.
2026 passiert etwas Ähnliches. Nur dass die neun "Nutzer" keine Menschen mit Smartphones sind, sondern KI-Agents, die im Auftrag von Menschen handeln. Sie recherchieren Produkte, vergleichen Anbieter, lesen Dokumentationen, füllen Formulare aus und schliessen Transaktionen ab. McKinsey prognostiziert, dass KI-Agents bis 2030 zwischen drei und fünf Billionen Dollar an Commerce vermitteln könnten.
Googles Universal Checkout Protocol ist live. Agents können bereits heute im Auftrag von Nutzern recherchieren, vergleichen und kaufen. Das ist keine Zukunftsvision -- das passiert gerade.
Die meisten Websites sind ausschliesslich für menschliche Besucher gebaut: visuelles Design, Navigation, Call-to-Action-Buttons. Das reicht nicht mehr. Unternehmen müssen eine zweite Tür baün -- eine, durch die Agents hindurchkommen.
Was das konkret bedeutet: Neben dem Human-facing Frontend braucht es ein Machine-readable Backend. Strukturierte Daten statt nur hübscher HTML-Seiten. APIs statt nur Kontaktformulare. Maschinenlesbare Produktinformationen statt nur PDF-Kataloge.
Die Technologie dafür existiert bereits. MCP (Model Context Protocol) standardisiert, wie KI-Agents auf Tools, APIs und Datenquellen zugreifen. A2A (Agent-to-Agent Protocol) standardisiert, wie Agents untereinander kommunizieren. Beide Protokolle werden seit Dezember 2025 von der Agentic AI Foundation unter dem Dach der Linux Foundation betreut -- mitgegründet von OpenAI, Anthropic, Google, Microsoft und AWS.
Das ist kein Open-Source-Nebenprojekt. Das ist die Infrastruktur-Schicht für die nächste Generation digitaler Interaktion, getragen von allen grossen Playern.
MCP und A2A lösen unterschiedliche Probleme. Sie zu verwechseln führt zu falschen Architekturentscheidungen.
MCP regelt, wie ein Agent mit Tools spricht. Dein CRM, dein Dokumentenmanagement, deine Datenbank -- MCP stellt eine standardisierte Schnittstelle bereit, über die ein Agent darauf zugreifen kann. Ein MCP-Server macht ein internes System für KI-Agents zugänglich, ähnlich wie eine REST-API ein System für andere Software zugänglich macht.
A2A regelt, wie Agents untereinander sprechen. Wenn dein Sales-Agent eine Information vom Compliance-Agent braucht, oder wenn ein externer Partner-Agent mit deinem System interagieren soll, kommt A2A ins Spiel. Das Protokoll wurde von Google im April 2025 initiiert und im Juni 2025 an die Linux Foundation übergeben. Über 50 Technologiepartner unterstützen es bereits, darunter Atlassian, Salesforce, SAP, ServiceNow und PayPal.
Die Empfehlung für Unternehmen, die heute Architekturentscheidungen treffen: Mit MCP anfangen. Das ist die Grundlage -- der Zugang zu deinen Systemen für Agents. A2A kommt dazu, wenn Multi-Agent-Koordination nötig wird.
Gartner hat 2024 prognostiziert, dass das traditionelle Suchmaschinenvolumen bis 2026 um 25 Prozent sinken wird. Wir sind jetzt in 2026. Die Daten zeigen: Die Prognose war konservativ.
93 Prozent der AI-Mode-Sessions enden ohne einen einzigen Website-Besuch. Google AI Overviews reduzieren Klicks auf das Top-Ranking-Ergebnis um 58 Prozent. ChatGPT verarbeitet mittlerweile rund 1,6 Milliarden Anfragen täglich -- etwa 12 Prozent von Googles Suchvolumen -- und schickt dabei signifikant weniger Traffic an Websites.
Aber hier wird es interessant: Die Besucher, die über KI-Suche doch auf eine Website kommen, konvertieren 4,4-mal besser als Standard-Organic-Traffic. Und Seiten, die in AI Overviews zitiert werden, erhalten 35 Prozent mehr organische Klicks.
Die Konseqünz ist nicht, dass SEO stirbt. Die Konseqünz ist, dass sich die Spielregeln ändern. Weniger Traffic, aber besserer Traffic. Weniger Klicks, aber höhere Conversion. Die Frage ist nicht mehr "Wie bekomme ich möglichst viele Besucher?", sondern "Wie werde ich die Quelle, die KI-Agents zitieren?"
llms.txt ist ein Format, das Webinhalte für Large Language Models zugänglich machen soll -- ähnlich wie robots.txt für Suchmaschinen. Google hat llms.txt in die A2A-Protokoll-Dokumentation aufgenommen. Anthropic, Cursor und Vercel nutzen es. Klingt nach Momentum.
Die Realität: Die Adoptionsrate liegt bei 5 bis 15 Prozent, hauptsächlich bei Tech- und Dokumentationsseiten. Es ist kein offizieller IETF- oder W3C-Standard, sondern ein Community-Vorschlag. Und die Daten zeigen etwas Entscheidendes: Domain Authority schlägt llms.txt. Seiten mit über 32.000 Referring Domains werden 3,5-mal häufiger von ChatGPT zitiert als Seiten mit unter 200. ChatGPT zitiert nur 15 Prozent der Seiten, die es abruft -- und die Top 4,8 Prozent der zitierten URLs sind umfassende Inhalte, die "Was ist es", "Wer nutzt es", "Wie wählt man aus" und "Pricing" in einer einzigen URL abdecken.
Was das für dich heisst: llms.txt schadet nicht und ist schnell implementiert. Aber es ist kein Ersatz für das, was tatsächlich zählt: umfassende, authoritative Inhalte auf einer Domain mit starkem Backlink-Profil.
Google hat das Universal Checkout Protocol live geschaltet. Das bedeutet: KI-Agents können im Auftrag von Nutzern nicht nur recherchieren und vergleichen, sondern auch Transaktionen abschliessen. McKinsey sieht bis 2030 ein Volumen von drei bis fünf Billionen Dollar, das über Agents vermittelt wird.
Für Unternehmen mit Onlineshops oder B2B-Vertrieb verändert das die Anforderungen grundlegend. Wenn ein Agent für einen Einkaufsleiter den besten Anbieter für Industriekomponenten sucht, bewertet er nicht dein Hero-Image oder deinen Slogan. Er bewertet strukturierte Produktdaten, API-Zugänglichkeit, Preistransparenz und Lieferkonditionen.
Die Unternehmen, die ihre Produktinformationen maschinenlesbar vorhalten, werden gefunden. Die anderen nicht -- egal wie schön ihre Website aussieht.
Die Liste ist überraschend kurz. Nicht weil das Thema einfach ist, sondern weil die ersten Schritte klar sind.
Erstens: Bestandsaufnahme machen. Welche deiner Inhalte und Daten sind maschinenlesbar? Welche existieren nur als PDF, PowerPoint oder hinter Login-Walls? Das ist dein Startpunkt.
Zweitens: MCP-Server evaluieren. Für deine wichtigsten internen Systeme (CRM, ERP, Wissensdatenbank) prüfen, ob MCP-Server verfügbar oder mit vertretbarem Aufwand implementierbar sind. Das ist die Grundlage dafür, dass Agents mit deinen Systemen arbeiten können.
Drittens: Strukturierte Daten priorisieren. Produktinformationen, Preise, Verfügbarkeiten, Dokumentationen -- alles, was ein Agent brauchen könnte, sollte in strukturiertem Format vorliegen. JSON-LD, Schema.org, APIs. Nicht weil es heute schon jeder Agent nutzt, sondern weil die Infrastruktur länger braucht als die Adoption.
Viertens: Content-Strategie anpassen. Die Frage ist nicht mehr nur "Rankt mein Content bei Google?", sondern "Wird mein Content von KI-Agents als Quelle zitiert?" Das erfordert umfassende, authoritative Inhalte, die mehrere Fragen in einer URL beantworten -- nicht dünne SEO-Texte auf zwanzig verschiedenen Unterseiten.
Agent First ist kein Technologie-Projekt. Es ist eine strategische Entscheidung darüber, ob dein Unternehmen in einer Welt sichtbar bleibt, in der zunehmend Maschinen die ersten Entscheidungen treffen, bevor ein Mensch überhaupt beteiligt wird.


0 Comments
Login or Register to Join the Conversation
Create an AccountLog in