Agentenbereitschaft: So bereiten Sie Ihre Website für das Agentic Web vor

KI-Agenten haben das Lesen von Seiten hinter sich gelassen. Sie buchen Flüge, bestellen Teile, führen den Checkout durch und melden sich im Namen ihrer Benutzer bei APIs an. Es werden Websites genutzt, die die richtigen Signale anzeigen. Websites, die nicht übersprungen werden. Der neue Agent Protocol Readiness Checker durchsucht Ihr URL nach den genauen Signalen, nach denen Agenten jetzt suchen.

  • KI-Agenten
  • MCP
  • Agentenhandel
  • Technische SEO
Von PageChecks 14 Min. Lesezeit

Warum die Agentenbereitschaft jetzt ein eigenes Problem ist

Jahrelang war der einzige Besucher, für den man etwas entwerfen musste, ein Mensch mit einem Browser. Dann tauchte der crawler von Google auf und SEO wurde zur Disziplin. Dann kamen die LLM crawler und Answer Engine Optimization war das nächste, worüber Sie sich Sorgen machen mussten.

Jetzt ist eine dritte Art von Besuchern hier. Agenten, die auf den Modellen OpenAI, Anthropic und Google basieren, durchsuchen Websites mit Absicht. Sie lesen Produktseiten, füllen Formulare aus, verhandeln Preise und rufen APIs auf. Sie entscheiden auch in den ersten ein oder zwei Sekunden, ob Ihre Website einen Rundgang wert ist.

Agenten verhalten sich weniger wie crawler, sondern eher wie ungeduldige Power-User. Sie überprüfen /.well-known/-Pfade, bevor sie Ihren HTML-Code berühren. Sie senden Accept: text/markdown, um Ihre Navigation zu überspringen. Sie suchen nach einer MCP-Serverkarte, damit sie mit Ihrer App als Werkzeug und nicht als Dokument kommunizieren können. Wenn diese Signale fehlen, greift der Agent entweder auf das Scrapen Ihres HTML-Codes zurück (langsam und verlustbehaftet) oder wechselt zu einem Konkurrenten, der seine Sprache spricht.

Dafür haben wir den Agent Protocol Readiness Checker gebaut, um ihn zu messen. Es handelt sich nicht um ein SEO-Audit. Es handelt sich um eine Protokollprüfung. Es prüft, ob Ihre Website für die Nutzung durch einen Agenten und nicht für das Lesen durch eine Person bereit ist.

Was der Agent Protocol Readiness Checker macht

Geben Sie dem Werkzeug einen URL. Es führt mehr als 20 Untersuchungen zu Ihrem Ursprung durch und gruppiert die Ergebnisse in fünf bewertete Kategorien:

  • Auffindbarkeit. Können Agenten Ihre robots.txt-, sitemap- und Link-Header finden?
  • Zugänglichkeit von Inhalten. Berücksichtigt Ihr Server Accept: text/markdown so, wie es in der Spezifikation von Acceptmarkdown.com beschrieben wird?
  • Bot-Zugriffskontrolle. Haben Sie eine explizite Richtlinie für GPTBot, ClaudeBot, Google-Extended und PerplexityBot geschrieben? Haben Sie ein Web Bot Auth-Schlüsselverzeichnis veröffentlicht?
  • Protokollerkennung. Stellen Sie eine MCP-Serverkarte, ein Agent-Skills-Manifest, einen RFC 9727-API-Katalog, OAuth-Erkennungsmetadaten und WebMCP-Tool-Anmerkungen zur Verfügung?
  • Agentic Commerce. Kann ein Agent Sie bezahlen? Der Prüfer sucht nach x402-, ACP-, UCP- und MPP-Signalen.

Jede Prüfung gibt „Bestanden“, „Warnung“ oder „Nicht bestanden“ zurück, wobei der Serverbeweis hinter dem Urteil steht. Misserfolge werden in einer priorisierten Empfehlungsliste zusammengefasst und die Kategorien zu einer gewichteten Note von A bis F zusammengefasst. Das Ziel ist kein weiterer Vanity Score. Das Ziel besteht darin, Ihnen die sechs Korrekturen an die Hand zu geben, die die Art und Weise, wie Agenten Ihre Website behandeln, am meisten verändern werden.

Lassen Sie uns durchgehen, was jede Kategorie tatsächlich misst und warum es wichtig ist.

1. Auffindbarkeit: Die Grundlagen, die immer noch alles entscheiden

Bevor ein Agent etwas Ausgefalleneres verwenden kann, muss er wissen, was an Ihrem Ursprungsort vorhanden ist. Das beginnt mit drei einfachen Dateien.

robots.txt

Der Prüfer ruft /robots.txt ab und bestätigt, dass eine gültige Antwort zurückgegeben wurde. RFC 9309 ist seit 2022 der formale Standard, und ein Agent, der Ihre Robots-Datei nicht lesen kann, geht vom Schlimmsten aus: dass Sie überhaupt nicht über den Maschinenzugriff nachgedacht haben. Wenn Sie in diesem Beitrag nur eines tun, veröffentlichen Sie einen gültigen robots.txt. Unser Robots.txt Validator fängt die häufigsten Fehler auf (verirrte Stücklisten, Wildcard-Traps, nicht zitierte Sitemap-Direktiven).

Sitemap-Deklaration

Ein sitemap bei /sitemap.xml ist schön. Eine Sitemap:-Zeile innerhalb von robots.txt, die darauf zeigt, ist besser, da Agenten zuerst die Robots-Datei auflösen. Der Checker belohnt Websites, die beides tun.

Moderne Agenten lesen auch den Link-Header auf Ihrer Homepage, um Hinweise zu Ressourcen bei /.well-known/* zu erhalten. Sites, die beispielsweise Link: </.well-known/mcp/server-card.json>; rel="mcp-server-card" bedienen, ermöglichen einem Agenten den nächsten Schritt ohne einen zweiten Roundtrip. Wenn Sie sehen möchten, welche Header Ihr Ursprung heute sendet, führen Sie ihn über unseren HTTP Header Checker aus.

Die Auffindbarkeit ist eine kleine Kategorie (15 % der Abschlussnote), aber die Fehler hier kaskadieren. Wenn Robots defekt ist, kann die Bot-Zugriffskategorie nicht überprüft werden. Wenn die Link-Header fehlen, müssen nachgeordnete Kategorien raten.

2. Zugänglichkeit von Inhalten: Die Markdown-VerhandlungsprüfungenDies ist die Kategorie, in der die meisten Websites scheitern. Es ist auch am einfachsten zu beheben.

Der acceptmarkdown.com-Vorschlag ist einfach: Wenn ein Client Accept: text/markdown sendet, sollte der Server denselben Inhalt wie Markdown anstelle von HTML zurückgeben. Agenten lieben das, weil HTML verrauscht ist. Das Entfernen von Chrome, Navigation und JavaScript von einer Seite verbraucht Token und führt zu Fehlern. Eine Markdown-Darstellung Ihres Artikels ist halb so groß und zehnmal einfacher zu analysieren.

Der Prüfer führt vier Tests für Ihren URL durch:

  1. Accept: text/markdown wird berücksichtigt. Der Server sollte Content-Type: text/markdown; charset=utf-8 zurückgeben. Eine UTF-8-Deklaration ist wichtig, weil Agenten den Text in einen Tokenizer einspeisen, der die Kodierung übernimmt.
  2. Vary: Accept ist festgelegt. Ohne diesen Header stellt ein CDN, der die HTML-Antwort zwischengespeichert hat, diesen HTML-Code dem nächsten Agenten zur Verfügung, der nach Markdown fragt. Ein fehlender Header beschädigt einen gesamten Ursprung für jeden AI-Client hinter demselben CDN.
  3. Nicht unterstützte Akzeptanztypen geben 406 zurück. Wenn ein Agent Accept: application/x-weird-type sendet, ist die richtige Antwort 406 Not Acceptable und kein stiller HTML-Fallback. Die Rückgabe von 406 teilt der Wiederholungslogik des Agenten mit, dass er nach dem Falschen gefragt hat.
  4. q-Werte werden respektiert. Ein Agent, der Accept: text/html;q=0.1, text/markdown;q=1.0 sendet, sagt: „Ich nehme HTML, wenn ich muss, aber ich bevorzuge Markdown.“ Der Server sollte diese Gewichtung berücksichtigen.

Die meisten Ursprünge erhalten in dieser Kategorie null von vier Punkten. Ein CDN-Worker, der HTML bei Bedarf in Markdown umwandelt, behebt alle vier Probleme an einem Nachmittag. Der Vorteil besteht darin, dass jeder Agent, der von diesem Zeitpunkt an auf Ihre Website zugreift, eine saubere, tokenisierte Darstellung Ihres Inhalts abruft. Weitere Informationen dazu, wie Agenten KI-freundliche Inhalte lesen, finden Sie in unserem AI Readiness Checker.

3. Bot-Zugriffskontrolle: Klar Ja sagenDer Standardwert robots.txt sagt nichts über KI-Agenten aus. Schweigen wird je nach Agent auf zwei Arten interpretiert. Manche gehen davon aus, dass Schweigen bedeutet: „Gut, mach weiter.“ Andere gehen davon aus, dass Schweigen bedeutet: „Diese Website hat sich nicht angemeldet.“ Beide Interpretationen tun Ihnen weh, denn keine davon entspricht Ihren eigentlichen Wünschen.

Der Agent Protocol Readiness Checker sucht nach drei expliziten Signalen.

KI-Bot-Benutzeragenten in robots.txt

Der Checker durchsucht Ihren robots.txt nach Regeln, die auf die heute wichtigen crawler abzielen: GPTBot, ChatGPT-User, OAI-SearchBot, ClaudeBot, Claude-Web, anthropic-ai, Google-Extended, PerplexityBot, Perplexity-Benutzer, Meta-ExternalAgent, Applebot-Extended, Bytespider, CCBot, cohere-ai, DuckAssistBot, Amazonbot, MistralAI-Benutzer. Drei oder mehr benannte Agenten erhalten einen Pass. Eine kürzere Liste verdient eine Warnung. Zero verdient einen Fehlschlag, da Sie zu diesem Zeitpunkt überhaupt keine KI-Richtlinie haben.

Das Schreiben von User-agent: GPTBot gefolgt von Allow: / ist nicht dasselbe wie nichts zu sagen. Es handelt sich um eine öffentliche Verpflichtung, dass der Vertreter eines bestimmten Unternehmens Ihre Website unter bestimmten Regeln lesen darf. Diese Verpflichtung ist von entscheidender Bedeutung, wenn die Richtlinien-Engine eines Agenten entscheidet, ob Sie abgerufen werden.

Wenn Sie untersuchen möchten, wie sich ein bestimmter KI-Bot aktuell gegenüber einem Ihrer Pfade verhält, simuliert unser AI Bot Path Tester die Anfrage anhand der Regeln in Ihrem Live-robots.txt.

Cloudflare-Inhaltssignale

Cloudflare schlug Ende 2025 Content Signals vor: drei Anweisungen (search, ai-input, ai-train), die in robots.txt enthalten sind und separate Richtlinien für crawling, Retrieval-for-Response und Training festlegen. Der Prüfer durchsucht Ihre Robots-Datei nach Content-Signal:-Anweisungen. Einer reicht zum Bestehen.

Inhaltssignale sind wichtig, weil „Block GPTBot“ ein stumpfes Instrument ist. Es blockiert das Training, das Abrufen und fundierte Antworten auf einmal. Mit Inhaltssignalen können Sie fundierte Antworten zulassen (damit Ihre Marke in ChatGPT-Zitaten angezeigt wird) und gleichzeitig Schulungen blockieren (damit Ihre Inhalte nicht in die Gewichtungen eines Modells komprimiert werden).

Web-Bot-Authentifizierung

Web Bot Auth ist das neueste Stück dieser Kategorie. Agenten signieren ihre Anfragen mit einem Ed25519-Schlüsselpaar. Der öffentliche Schlüssel ist unter /.well-known/http-message-signature-directory als JWKS erkennbar. Wenn ein Agent Ihren Server erreicht, überprüfen Sie die Signatur anhand des veröffentlichten Schlüssels und wissen mit Sicherheit, welcher Agent die Anfrage gesendet hat.

Der Prüfer prüft dieses Verzeichnis und bestätigt, dass es JSON zurückgibt. Wenn Sie keinen veröffentlicht haben, können Sie einen legitimen Agenten nicht von einem Scraper unterscheiden, der seinen User-Agent trägt. Allein der Sicherheitsaspekt ist überzeugend. Der praktische Fall ist größer: Agenten, die Web Bot Auth unterstützen, erhalten niedrigere Ratenlimits und Zugriff auf mehr Teile Ihrer Website. Veröffentlichte Schlüssel amortisieren sich sofort.

4. Protokollerkennung: Die bekannten EndpunkteDies ist das Herzstück des Tools und die Kategorie mit der höchsten Gewichtung (25 % der Endpunktzahl). Es ist auch der Teil des Agentenstapels, der sich monatlich ändert, sodass sich der Prüfer auf genau spezifizierte Endpunkte und nicht auf herstellerspezifische Tricks stützt.

MCP-Serverkarte

Mit Model Context Protocol entdecken Claude, ChatGPT und eine wachsende Liste von Agenten aufrufbare Tools auf einem Remote-Server. Die MCP-Serverkarte bei /.well-known/mcp/server-card.json gibt den Namen, die Funktionen, den Transport und das Authentifizierungsmodell Ihres Servers bekannt. Der Prüfer prüft diesen Pfad und greift auf /.well-known/mcp.json zurück, wenn er fehlt.

Wenn Ihr Produkt über eine API verfügt, ist eine MCP-Serverkarte der Schritt, der Ihre Website von einem Dokument in ein Tool verwandelt. Ein Agent, der eine Serverkarte findet, beendet das Scraping und beginnt mit dem Aufruf. Das bedeutet ein besseres Erlebnis für den Benutzer und eine günstigere Interaktion für Sie.

Agentenfähigkeiten

Agent Skills ist ein neueres Manifestformat, das unter /.well-known/agent-skills/index.json lebt. Es ergänzt MCP durch vom Agenten nutzbare Arbeitsabläufe, nicht nur durch Tools: „Sendung erstellen“, „Rückerstattung einreichen“, „Buchung nachschlagen“. Der Prüfer prüft diesen Pfad und sucht nach einer gültigen Antwort.

Wenn Ihre Site bereits eine OpenAPI-Spezifikation oder eine MCP-Serverkarte veröffentlicht, ist die Erstellung eines Agent Skills-Manifests meist eine Übersetzungsübung. Der ROI besteht darin, dass Claude Code und ähnliche Kunden Ihre Fähigkeiten den Benutzern namentlich preisgeben.

WebMCP

WebMCP ist der browserseitige Cousin von MCP. Anstatt Tools über einen /.well-known/ URL zu bewerben, kommentieren Sie <form>-Elemente direkt in Ihrem HTML mit den Attributen toolname und tooldescription oder deklarieren Tools über ein <meta name="webmcp" ...>-Tag. Der Prüfer durchsucht den HTML-Code Ihrer Homepage nach einem der beiden Muster.

Der Vorteil besteht darin, dass ein Agent, der Ihre Seite in einem Browser verwendet, diese Tools erkennen und aufrufen kann, ohne den Tab zu verlassen. WebMCP ist eine kleine Menge Markup für eine große Agentenkompetenz.

API-Katalog (RFC 9727)

RFC 9727 definiert /.well-known/api-catalog als Zeiger auf alle von Ihrem Ursprung bereitgestellten APIs, die als application/linkset+json bereitgestellt werden. Der Prüfer bestätigt, dass der Endpunkt vorhanden ist und dass sein Inhaltstyp korrekt ist. Viele Ursprünge erhalten hier eine Warnung: Sie bedienen den Pfad, jedoch mit application/json statt application/linkset+json. Das Festlegen des Inhaltstyps ist ein Header auf einer Route.

OAuth-Erkennung

Hier sind zwei Spezifikationen wichtig:

RFC 8414 beschreibt die Metadaten des OAuth-Autorisierungsservers unter /.well-known/oauth-authorization-server. Dadurch wird einem Agent mitgeteilt, wie er einen OAuth-Flow für Ihren Aussteller starten kann. – RFC 9728 beschreibt OAuth Protected Resource-Metadaten unter /.well-known/oauth-protected-resource. Dies teilt einem Agenten mit, wenn er eine 401 von Ihrer API erreicht, bei welchem ​​Aussteller er sich authentifizieren und welche Bereiche er anfordern soll.

Ein Agent, der keine OAuth-Erkennung durchführen kann, kann eine Anmeldeaktion auf Ihrer Site nicht ohne menschliches Eingreifen automatisieren. Wenn Ihr Produkt über ein Benutzerkonto verfügt, veröffentlichen Sie beide.

5. Agentenhandel: Kann ein Agent Sie bezahlen?Dies ist die neueste Kategorie und diejenige, die von Skeptikern am meisten abgelehnt wird. Die Frage dahinter ist einfach: Wie sieht diese Transaktion aus, wenn ein Agent im Namen seines Benutzers etwas von Ihnen kaufen möchte?

Der Prüfer misst vier konkurrierende Antworten.

x402

x402 belebt den HTTP-Statuscode 402 („Zahlung erforderlich“) wieder und fügt einen PAYMENT-REQUIRED-Header mit einem maschinenlesbaren Angebot hinzu: Preis, Währung, akzeptierte Zahlungsschienen, Abrechnungsendpunkt. Ein Agent, der einen 402-Fehler erhält, signiert eine Zahlung, reicht die Anfrage erneut ein und erhält die Ressource. Der Prüfer sucht auf Ihrer Homepage und jedem geprüften Endpunkt nach einem 402-Status oder einem PAYMENT-REQUIRED-Header.

x402 ist die Option mit dem geringsten Aufwand. Sie wählen einen kostenpflichtigen Endpunkt aus, geben eine 402 mit Bedingungen zurück und schon sind Sie dabei. Stripe, Coinbase und mehrere Krypto-Abwicklungsanbieter unterstützen den Ablauf heute.

ACP (Agentic Commerce Protocol)

ACP ist der Standard von OpenAI. Es befindet sich unter /.well-known/agentic-commerce und beschreibt eine umfassendere Checkout-Oberfläche: Produktkatalog, Preise, Steuern, Versand, Retouren. Wenn Sie physische oder digitale Waren verkaufen und möchten, dass ChatGPT Transaktionen direkt mit Ihrem Geschäft abwickelt, ist ACP die richtige Lösung.

UCP (Universal Commerce Protocol)

UCP huckepack auf OAuth. Sie deklarieren Commerce-Bereiche wie ucp:scopes:checkout_session in Ihren OAuth-Autorisierungsserver-Metadaten. Der Prüfer ruft Ihr OAuth-AS-Dokument ab und sucht nach einem beliebigen ucp:scopes:*-Wert. Für ein Spiel wird ein Pass vergeben.

UCP ist das leichteste der vier Handelsprotokolle, da es die bereits vorhandene OAuth-Schicht wiederverwendet. Wenn Sie Token für irgendetwas verschicken, sind Sie auf halbem Weg.

MPP (Machine Payments Protocol)

MPP, beworben unter /.well-known/machine-payments, ist das allgemeinste. Dabei geht es weniger um den Checkout-Ablauf als vielmehr um die Werbung dafür, welche Arten von Maschine-zu-Maschine-Zahlungen Ihr Dienst akzeptiert: Stablecoins, Bankschienen von Konto zu Konto, Messung pro Token.

Für eine bestandene kaufmännische Prüfung sind nicht alle vier Punkte erforderlich. Es ist mindestens eine erforderlich, da es sich bei „Agenten können Sie bezahlen“ um eine einzelne Funktion handelt, bei der vier Standards um den Besitz dieser Funktion konkurrieren. Wählen Sie diejenige aus, die zu Ihrem Unternehmen passt, und versenden Sie sie.

Was das Endergebnis tatsächlich bedeutet

Das Tool kombiniert die fünf Kategorienbewertungen zu einer gewichteten Gesamtnote.

KategorieGewicht
Auffindbarkeit15 %
Barrierefreiheit von Inhalten20 %
Bot-Zugriffskontrolle15 %
Protokollerkennung25 %
Agentenhandel25 %

Bei Werten über 85 erhält man eine Eins. Zwischen 70 und 84 liegt eine Zwei. Die schlechteren Noten fallen schnell ab, und das ist Absicht. Eine Website, die im D-Bereich punktet, ist nicht nur für Agenten unvollkommen; es ist für sie funktionell unsichtbar. Es bewirbt keine Tools, stellt keinen Markdown bereit, erklärt keine Bot-Richtlinie und unterstützt keine Agentenzahlungen. Für den Anteil des Datenverkehrs, der bereits agentengesteuert ist, wird diese Site als geparkte Domain gelesen.

Die meisten von uns geprüften Websites erzielen beim ersten Durchlauf eine Punktzahl zwischen 10 und 30. Das ist in Ordnung. Das Tool ist so konzipiert, dass es Sie dort abholt, wo Sie sich gerade befinden, und Ihnen die sechs Veränderungen mit dem größten Nutzen aufzeigt. Durch die Behebung von drei davon wird eine Site normalerweise in weniger als einem Tag von F auf C verschoben.

So führen Sie die Prüfung durch

Gehen Sie zum Agent Protocol Readiness Checker, fügen Sie einen URL ein und warten Sie etwa zehn Sekunden. Die Ergebnisseite enthält:

  • Ihre Gesamtpunktzahl und Buchstabennote.
  • Die fünf Kategorien punkten mit einem farbigen Status pro Scheck. – Die rohen Beweise (Header, Statuscodes, übereinstimmende Teilzeichenfolgen) hinter jeder Prüfung, damit Sie den Lesevorgang des Tools anhand Ihrer eigenen Protokolle überprüfen können.
  • Eine priorisierte Empfehlungsliste der Top-Fixes.

Sie können die Prüfung anhand von Stagingdomänen, internen Ursprüngen und der Produktion durchführen. Es respektiert die URL-Sicherheitsregeln für ausgehenden Datenverkehr und begrenzt Body-Reads auf 512 KB, sodass ein falsch konfigurierter Server Ihr Ratenlimit nicht zerstören kann.

Eine praktische Anweisung, Dinge in Ordnung zu bringenWenn Sie einen schnellen Lift wünschen, gehen Sie wie folgt vor:

  1. Veröffentlichen Sie ein gültiges robots.txt mit expliziten User-agent:-Regeln für GPTBot, ClaudeBot, Google-Extended und PerplexityBot sowie einer Sitemap:-Direktive. Validieren Sie es mit unserem Robots.txt Validator.
  2. Fügen Sie Markdown-Inhaltsverhandlungen hinzu an Ihrem CDN-Edge. Überprüfen Sie den Accept-Header, konvertieren Sie HTML im Handumdrehen in Markdown und legen Sie Content-Type: text/markdown; charset=utf-8 und Vary: Accept fest. Geben Sie 406 für nicht unterstützte Typen zurück.
  3. Veröffentlichen Sie eine llms.txt in Ihrem Stammverzeichnis mit Verweisen auf die Seiten, die Agenten am häufigsten zitieren sollen. Generieren und validieren Sie es mit unserem LLMs.txt Generator and Validator.
  4. Eine MCP-Serverkarte freilegen bei /.well-known/mcp/server-card.json. Schon eine minimale Karte (Name, Beschreibung, Version, Transport) ermöglicht die Agentenerkennung.
  5. Inhaltssignale hinzufügen zu robots.txt. Eine Zeile mit der Angabe von ai-input: yes, ai-train: no reicht aus, um die Prüfung zu bestehen und eine echte Richtlinie zu veröffentlichen.
  6. Veröffentlichen Sie ein Web Bot Auth JWKS, damit legitime Agenten Anfragen gegen Ihren Ursprung signieren können.

Diese Liste entspricht ungefähr zwei Arbeitstagen eines Ingenieurs für ein Team mit einem normalen CDN und einem normalen Authentifizierungsserver. Es verschiebt eine Site von F nach B und macht den Ursprung zukunftssicher gegen die Abwanderung von Agentenprotokollen im nächsten Jahr.

Wie die Agentenbereitschaft in einem Jahr aussieht

Die genaue Liste der Prüfungen, die das Tool heute ausführt, wird nicht die Liste sein, die es in zwölf Monaten ausführt. MCP wird eine formelle Fähigkeitsverhandlungsspezifikation ratifizieren. Agent Skills werden mit Teilen von OpenAPI zusammengeführt oder diese ersetzen. ACP, UCP und MPP werden zu weniger, stärkeren Standards zusammengefasst. Wir werden Sonden hinzufügen, sobald sie landen, und Sonden aus dem Verkehr ziehen, sobald sie zum Standard werden.

Was sich nicht ändern wird, ist die Form des Problems. Agenten entscheiden bereits in den ersten Anfragen, ob sich die Nutzung Ihrer Website lohnt. Ihre Aufgabe ist es, schnell und klar darzulegen, was Ihre Website leisten kann und wie Sie sie nutzen können. Jedes Signal, nach dem der Prüfer sucht, ist eine Abkürzung, die es einem Agenten ermöglicht, sich auf Ihren Ursprung festzulegen, anstatt ihn aufzugeben.

Führen Sie Agent Protocol Readiness Checker auf Ihrer Homepage aus. Korrigieren Sie die drei wichtigsten Empfehlungen. Führen Sie es erneut aus. Beobachten Sie, wie unterschiedlich Agenten Ihre Website behandeln, nachdem diese drei Änderungen vorgenommen wurden.

Verwandte Lektüre