एजेंट की तैयारी: एजेंटिक वेब के लिए अपनी साइट कैसे तैयार करें
एआई एजेंट पढ़ने वाले पन्नों से आगे निकल गए हैं। वे अपने उपयोगकर्ताओं की ओर से उड़ानें बुक करते हैं, पार्ट्स ऑर्डर करते हैं, चेकआउट करते हैं और एपीआई में साइन इन करते हैं। जो साइटें सही संकेत उजागर करती हैं उनका उपयोग किया जाता है। ऐसी साइटें जिन्हें छोड़ा नहीं जाता. नया एजेंट प्रोटोकॉल रेडीनेस चेकर आपके URL को उन सटीक संकेतों के लिए स्कैन करता है जिनकी एजेंट अब तलाश कर रहे हैं।
- एआई एजेंट
- एम.सी.पी
- एजेंट कॉमर्स
- तकनीकी SEO
अब एजेंट की तैयारी ही अपनी समस्या क्यों है
वर्षों तक, आपको जिस एकमात्र विज़िटर के लिए डिज़ाइन करना था, वह ब्राउज़र वाला एक इंसान था। फिर Google का crawler दिखा, और SEO एक अनुशासन बन गया। फिर LLM crawlers आ गया, और Answer Engine Optimization अगली चीज़ बन गई जिसके बारे में आपको चिंता करनी होगी।
अब एक तीसरे प्रकार का आगंतुक यहाँ है। OpenAI, Anthropic और Google मॉडल पर बने एजेंट इरादे से साइटों को ब्राउज़ करते हैं। वे उत्पाद पृष्ठ पढ़ते हैं, फॉर्म भरते हैं, मूल्य निर्धारण पर बातचीत करते हैं और एपीआई को कॉल करते हैं। वे पहले या दो सेकंड में यह भी तय कर लेते हैं कि आपकी साइट राउंड ट्रिप के लायक है या नहीं।
एजेंट crawlers की तरह कम और अधीर बिजली उपयोगकर्ताओं की तरह अधिक व्यवहार करते हैं। वे आपके HTML को छूने से पहले /.well-known/ पथों की जाँच करते हैं। वे आपके नेविगेशन को छोड़ने के लिए Accept: text/markdown भेजते हैं। वे एक एमसीपी सर्वर कार्ड की तलाश करते हैं ताकि वे आपके ऐप से एक उपकरण के रूप में बात कर सकें, दस्तावेज़ के रूप में नहीं। यदि वे सिग्नल गायब हैं, तो एजेंट या तो आपके एचटीएमएल (धीमे और हानिपूर्ण) को स्क्रैप करने के लिए वापस आ जाता है या किसी प्रतिस्पर्धी की ओर बढ़ जाता है जो उसकी भाषा बोलता है।
इसे मापने के लिए हमने Agent Protocol Readiness Checker का निर्माण किया। यह SEO ऑडिट नहीं है. यह एक प्रोटोकॉल ऑडिट है. यह जाँचता है कि क्या आपकी साइट किसी व्यक्ति द्वारा पढ़ने के बजाय किसी एजेंट द्वारा उपयोग किए जाने के लिए तैयार है।
एजेंट प्रोटोकॉल रेडीनेस चेकर क्या करता है
टूल को URL दें। यह आपके मूल के विरुद्ध 20 से अधिक जांच चलाता है और निष्कर्षों को पांच अंक वाली श्रेणियों में समूहित करता है:
- खोज योग्यता। क्या एजेंट आपके robots.txt, sitemap और लिंक हेडर ढूंढ सकते हैं?
- सामग्री अभिगम्यता। क्या आपका सर्वर
Accept: text/markdownका सम्मान करता है जिस तरह से एक्सेप्टमार्कडाउन.कॉम स्पेक वर्णन करता है? - बॉट एक्सेस कंट्रोल। क्या आपने GPTBot, ClaudeBot, Google-एक्सटेंडेड, और PerplexityBot के लिए एक स्पष्ट नीति लिखी है? क्या आपने वेब बॉट प्रामाणिक कुंजी निर्देशिका प्रकाशित की है?
- प्रोटोकॉल डिस्कवरी। क्या आप एमसीपी सर्वर कार्ड, एजेंट स्किल्स मेनिफेस्ट, आरएफसी 9727 एपीआई कैटलॉग, ओएथ डिस्कवरी मेटाडेटा और वेबएमसीपी टूल एनोटेशन को उजागर करते हैं?
- एजेंट कॉमर्स। क्या कोई एजेंट आपको भुगतान कर सकता है? चेकर x402, ACP, UCP और MPP सिग्नल ढूंढता है।
प्रत्येक चेक फैसले के पीछे सर्वर साक्ष्य के साथ पास, चेतावनी या असफल होता है। विफलताएं प्राथमिकता वाली अनुशंसा सूची में शामिल हो जाती हैं, और श्रेणियां ए से एफ तक भारित ग्रेड में संयोजित हो जाती हैं। लक्ष्य कोई अन्य वैनिटी स्कोर नहीं है। लक्ष्य आपको छह समाधान सौंपना है जो एजेंटों द्वारा आपकी साइट के साथ व्यवहार करने के तरीके को बदल देंगे।
आइए जानें कि प्रत्येक श्रेणी वास्तव में क्या मापती है और यह क्यों मायने रखती है।
1. खोज योग्यता: मूल बातें जो अभी भी सब कुछ तय करती हैं
इससे पहले कि कोई एजेंट किसी भी आकर्षक चीज़ का उपयोग कर सके, उसे यह जानना होगा कि आपके मूल में क्या मौजूद है। इसकी शुरुआत तीन सादे फाइलों से होती है।
robots.txt
चेकर /robots.txt प्राप्त करता है और पुष्टि करता है कि उसने वैध प्रतिक्रिया दी है। RFC 9309 2022 से औपचारिक मानक रहा है, और एक एजेंट जो आपकी रोबोट फ़ाइल को नहीं पढ़ सकता है वह सबसे खराब मान लेता है: कि आपने मशीन एक्सेस के बारे में बिल्कुल भी नहीं सोचा है। यदि आप इस पोस्ट से केवल एक ही काम करते हैं, तो एक वैध robots.txt प्रकाशित करें। हमारा Robots.txt Validator सामान्य गलतियों (आवारा BOMs, वाइल्डकार्ड ट्रैप, गैर-उद्धृत Sitemap निर्देश) को पकड़ता है।
Sitemap घोषणा
/sitemap.xml पर एक sitemap अच्छा है। robots.txt के अंदर एक Sitemap: लाइन जो इसे इंगित करती है, बेहतर है, क्योंकि एजेंट पहले रोबोट फ़ाइल को हल करते हैं। चेकर दोनों काम करने वाली साइटों को पुरस्कृत करता है।
लिंक प्रतिक्रिया शीर्षलेख
आधुनिक एजेंट /.well-known/* पर संसाधनों के बारे में संकेत के लिए आपके होमपेज पर Link हेडर भी पढ़ते हैं। उदाहरण के लिए, Link: </.well-known/mcp/server-card.json>; rel="mcp-server-card" सेवा देने वाली साइटें एक एजेंट को दूसरे दौर की यात्रा के बिना उसका अगला कदम देती हैं। यदि आप यह देखना चाहते हैं कि आपका मूल आज कौन से हेडर भेजता है, तो इसे हमारे HTTP Header Checker के माध्यम से चलाएं।
खोज योग्यता एक छोटी श्रेणी है (अंतिम ग्रेड का 15%), लेकिन यहाँ असफलताएँ बढ़ती जाती हैं। यदि रोबोट टूटा हुआ है, तो बॉट-एक्सेस श्रेणी को सत्यापित नहीं किया जा सकता है। यदि लिंक हेडर गायब हैं, तो डाउनस्ट्रीम श्रेणियों का अनुमान लगाना होगा।
2. सामग्री पहुंच: मार्कडाउन निगोशिएशन जांच करता हैयह वह श्रेणी है जिस पर अधिकांश साइटें विफल रहती हैं। इसे ठीक करना भी सबसे आसान है।
acceptmarkdown.com प्रस्ताव सरल है: जब कोई क्लाइंट Accept: text/markdown भेजता है, तो सर्वर को HTML के बजाय मार्कडाउन के समान सामग्री वापस करनी चाहिए। एजेंट इसे पसंद करते हैं क्योंकि HTML शोर करता है। किसी पृष्ठ से क्रोम, नेविगेशन और जावास्क्रिप्ट को अलग करने से टोकन नष्ट हो जाते हैं और त्रुटियाँ उत्पन्न होती हैं। आपके लेख का मार्कडाउन प्रतिनिधित्व आधे आकार का है और इसे पार्स करना दस गुना आसान है।
चेकर आपके URL के विरुद्ध चार जांच चलाता है:
Accept: text/markdownसम्मानित है। सर्वर कोContent-Type: text/markdown; charset=utf-8वापस आना चाहिए। UTF-8 घोषणा मायने रखती है क्योंकि एजेंट बॉडी को एक टोकननाइज़र में फीड करते हैं जो एन्कोडिंग ग्रहण करता है।Vary: Acceptसेट है। इस हेडर के बिना, एक CDN जिसने HTML प्रतिक्रिया को कैश किया है, उस HTML को मार्कडाउन के लिए पूछने वाले अगले एजेंट को प्रदान करेगा। एक गुम हेडर एक ही CDN के पीछे प्रत्येक AI क्लाइंट के लिए संपूर्ण मूल को दूषित कर देता है।- असमर्थित स्वीकार प्रकार 406 लौटाते हैं। यदि कोई एजेंट
Accept: application/x-weird-typeभेजता है, तो सही उत्तर406 Not Acceptableहै, कोई साइलेंट HTML फ़ॉलबैक नहीं है। 406 लौटाना एजेंट के पुनः प्रयास तर्क को बताता है कि उसने गलत चीज़ मांगी है। - q-मानों का सम्मान किया जाता है। एक एजेंट जो
Accept: text/html;q=0.1, text/markdown;q=1.0भेजता है, वह कह रहा है “यदि मुझे आवश्यकता होगी तो मैं HTML लूंगा, लेकिन मैं मार्कडाउन को दृढ़ता से पसंद करता हूं।” सर्वर को उस भार का सम्मान करना चाहिए।
इस श्रेणी में अधिकांश मूल को चार में से शून्य मिलता है। एक CDN कार्यकर्ता जो मांग पर HTML को मार्कडाउन में बदलता है, एक दोपहर में इन चारों को ठीक कर देता है। भुगतान यौगिक: प्रत्येक एजेंट जो आपकी साइट पर उस बिंदु से आगे बढ़ता है, आपकी सामग्री का एक साफ, प्रतीकात्मक प्रतिनिधित्व खींचता है। एजेंट एआई-अनुकूल सामग्री कैसे पढ़ते हैं, इसकी गहराई से जानकारी के लिए हमारा AI Readiness Checker देखें।
3. बॉट एक्सेस कंट्रोल: स्पष्ट रूप से हाँ कहनाडिफ़ॉल्ट robots.txt AI एजेंटों के बारे में कुछ नहीं कहता है। एजेंट के आधार पर, मौन की दो तरह से व्याख्या की जाती है। कुछ लोग मानते हैं कि मौन का अर्थ है “ठीक है, चलते रहो।” अन्य लोग मानते हैं कि चुप्पी का अर्थ है “इस साइट ने ऑप्ट इन नहीं किया है।” दोनों व्याख्याएं आपको आहत करती हैं, क्योंकि इनमें से कोई भी उस चीज़ से मेल नहीं खाती जो आप वास्तव में चाहते हैं।
एजेंट प्रोटोकॉल रेडीनेस चेकर तीन स्पष्ट संकेतों की तलाश करता है।
robots.txt में AI बॉट उपयोगकर्ता-एजेंट
चेकर आज के लिए महत्वपूर्ण crawlers को लक्षित करने वाले नियमों के लिए आपके robots.txt की खोज करता है: GPTBot, ChatGPT-User, OAI-SearchBot, ClaudeBot, क्लाउड-वेब, एंथ्रोपिक-एआई, Google-एक्सटेंडेड, PerplexityBot, Perplexity-यूजर, मेटा-एक्सटर्नलएजेंट, एप्पलबॉट-एक्सटेंडेड, बाइटस्पाइडर, सीसीबॉट, कोहेयर-एआई, डकअसिस्टबॉट, अमेज़ॅनबॉट, मिस्ट्रलएआई-यूजर। तीन या अधिक नामित एजेंट एक पास अर्जित करते हैं। एक छोटी सूची एक चेतावनी अर्जित करती है। ज़ीरो विफल हो जाता है, क्योंकि उस समय आपके पास कोई AI नीति नहीं होती है।
User-agent: GPTBot के बाद Allow: / लिखना कुछ न कहने के समान नहीं है। यह एक सार्वजनिक प्रतिबद्धता है कि एक विशिष्ट कंपनी का एजेंट एक विशिष्ट नियम के तहत आपकी साइट को पढ़ सकता है। जब किसी एजेंट का नीति इंजन यह तय करता है कि आपको लाना है या नहीं, तो वह प्रतिबद्धता भार वहन करने वाली होती है।
यदि आप यह जांचना चाहते हैं कि एक विशिष्ट AI बॉट वर्तमान में आपके किसी पथ के विरुद्ध कैसे व्यवहार करता है, तो हमारा AI Bot Path Tester आपके लाइव robots.txt में नियमों के विरुद्ध अनुरोध का अनुकरण करेगा।
क्लाउडफ्लेयर सामग्री सिग्नल
क्लाउडफ्लेयर ने 2025 के अंत में Content Signals का प्रस्ताव रखा: तीन निर्देश (search, ai-input, ai-train) जो robots.txt के अंदर बैठते हैं और crawling, पुनर्प्राप्ति-के-प्रतिक्रिया और प्रशिक्षण के लिए अलग नीतियों की घोषणा करते हैं। चेकर किसी भी Content-Signal: निर्देश के लिए आपकी रोबोट फ़ाइल को स्कैन करता है। पास होने के लिए एक ही काफी है.
सामग्री संकेत मायने रखते हैं क्योंकि “ब्लॉक GPTBot” एक कुंद उपकरण है। यह एक ही बार में प्रशिक्षण, पुनर्प्राप्ति और जमीनी उत्तरों को अवरुद्ध कर देता है। सामग्री सिग्नल आपको प्रशिक्षण को अवरुद्ध करते समय जमीनी उत्तर (ताकि आपका ब्रांड ChatGPT उद्धरणों में दिखाई दे) की अनुमति देता है (ताकि आपकी सामग्री किसी मॉडल के भार में संपीड़ित न हो)।
वेब बॉट प्रामाणिक
Web Bot Auth इस श्रेणी का नवीनतम भाग है। एजेंट अपने अनुरोधों पर Ed25519 कीपेयर के साथ हस्ताक्षर करते हैं। सार्वजनिक कुंजी JWKS के रूप में /.well-known/http-message-signature-directory पर खोजने योग्य है। जब कोई एजेंट आपके सर्वर पर पहुंचता है, तो आप प्रकाशित कुंजी के विरुद्ध हस्ताक्षर सत्यापित करते हैं और निश्चित रूप से जानते हैं कि किस एजेंट ने अनुरोध भेजा है।
चेकर उस निर्देशिका की जांच करता है और पुष्टि करता है कि यह JSON लौटाता है। यदि आपने इसे प्रकाशित नहीं किया है, तो आप उपयोगकर्ता-एजेंट पहने हुए किसी स्क्रैपर से वैध एजेंट के बारे में नहीं बता सकते। अकेले सुरक्षा मामला ही सम्मोहक है। व्यावहारिक मामला बड़ा है: वेब बॉट ऑथ का समर्थन करने वाले एजेंटों को कम दर सीमा और आपकी साइट के अधिक हिस्से तक पहुंच मिलती है। प्रकाशित कुंजियाँ तुरंत वापस भुगतान करती हैं।
4. प्रोटोकॉल डिस्कवरी: सुप्रसिद्ध समापन बिंदुयह टूल का हृदय है और सबसे अधिक महत्व वाली श्रेणी (अंतिम स्कोर का 25%) है। यह एजेंट स्टैक का भी हिस्सा है जो मासिक रूप से बदलता है, इसलिए चेकर विक्रेता-विशिष्ट युक्तियों के बजाय अच्छी तरह से निर्दिष्ट समापन बिंदुओं पर निर्भर करता है।
एमसीपी सर्वर कार्ड
Model Context Protocol इस प्रकार है कि क्लाउड, ChatGPT और एजेंटों की बढ़ती सूची एक दूरस्थ सर्वर पर कॉल करने योग्य टूल की खोज करती है। /.well-known/mcp/server-card.json पर MCP सर्वर कार्ड आपके सर्वर के नाम, क्षमताओं, परिवहन और ऑथ मॉडल का विज्ञापन करता है। चेकर उस पथ की जाँच करता है और यदि वह पथ गायब है तो वापस /.well-known/mcp.json पर आ जाता है।
यदि आपके उत्पाद में किसी भी प्रकार की एपीआई है, तो एमसीपी सर्वर कार्ड वह कदम है जो आपकी साइट को एक दस्तावेज़ से एक टूल में बदल देता है। एक एजेंट जो सर्वर कार्ड ढूंढता है वह स्क्रैपिंग बंद कर देता है और इनवॉइस करना शुरू कर देता है। यह उपयोगकर्ता के लिए बेहतर अनुभव और आपके लिए सस्ता इंटरैक्शन है।
एजेंट कौशल
Agent Skills एक नया मेनिफेस्ट प्रारूप है जो /.well-known/agent-skills/index.json पर रहता है। यह केवल टूल ही नहीं, बल्कि एजेंट-प्रयोग योग्य वर्कफ़्लो का वर्णन करके MCP को पूरक करता है: “एक शिपमेंट बनाएं,” “रिफ़ंड फ़ाइल करें,” “बुकिंग देखें।” चेकर उस पथ की जांच करता है और एक वैध प्रतिक्रिया की तलाश करता है।
यदि आपकी साइट पहले से ही एक ओपनएपीआई स्पेक या एक एमसीपी सर्वर कार्ड प्रकाशित करती है, तो एजेंट स्किल मेनिफ़ेस्ट उत्पन्न करना ज्यादातर एक अनुवाद अभ्यास है। आरओआई यह है कि क्लाउड कोड और समान ग्राहक आपके कौशल को नाम से उपयोगकर्ताओं के सामने पेश करेंगे।
वेबएमसीपी
WebMCP MCP का ब्राउज़र-साइड चचेरा भाई है। /.well-known/ URL के माध्यम से विज्ञापन टूल के बजाय, आप सीधे अपने HTML में toolname और tooldescription विशेषताओं के साथ <form> तत्वों को एनोटेट करते हैं, या <meta name="webmcp" ...> टैग के माध्यम से टूल घोषित करते हैं। चेकर किसी भी पैटर्न के लिए आपके होमपेज HTML को स्कैन करता है।
लाभ यह है कि ब्राउज़र में आपके पेज का उपयोग करने वाला एजेंट टैब छोड़े बिना उन टूल को खोज और लागू कर सकता है। वेबएमसीपी बड़ी मात्रा में एजेंट प्रवाह के लिए मार्कअप की एक छोटी मात्रा है।
एपीआई कैटलॉग (आरएफसी 9727)
RFC 9727, /.well-known/api-catalog को आपके मूल द्वारा उजागर किए गए सभी एपीआई के सूचक के रूप में परिभाषित करता है, जिसे application/linkset+json के रूप में प्रस्तुत किया जाता है। चेकर पुष्टि करता है कि समापन बिंदु मौजूद है और इसकी सामग्री प्रकार सही है। कई मूलों को यहां चेतावनी मिलती है: वे पथ की सेवा करते हैं, लेकिन application/linkset+json के बजाय application/json के साथ। सामग्री प्रकार को ठीक करना एक रूट पर एक हेडर है।
OAuth डिस्कवरी
यहां दो विशिष्टताएं मायने रखती हैं:
- RFC 8414
/.well-known/oauth-authorization-serverपर OAuth प्राधिकरण सर्वर मेटाडेटा का वर्णन करता है। यह एजेंट को बताता है कि आपके जारीकर्ता के विरुद्ध OAuth प्रवाह कैसे प्रारंभ करें। - RFC 9728
/.well-known/oauth-protected-resourceपर OAuth संरक्षित संसाधन मेटाडेटा का वर्णन करता है। यह एक एजेंट को बताता है, जब वह आपके एपीआई से 401 हिट करता है, तो किस जारीकर्ता के खिलाफ प्रमाणित करना है और किस दायरे का अनुरोध करना है।
एक एजेंट जो OAuth खोज नहीं कर सकता, वह मानवीय हस्तक्षेप के बिना आपकी साइट पर साइन-इन कार्रवाई को स्वचालित नहीं कर सकता है। यदि आपके उत्पाद में उपयोगकर्ता खाता है, तो दोनों को प्रकाशित करें।
5. एजेंट कॉमर्स: क्या कोई एजेंट आपको भुगतान कर सकता है?यह सबसे नई श्रेणी है और संशयवादियों से इसे सबसे अधिक प्रतिक्रिया मिलती है। इसके नीचे प्रश्न सीधा है: जब कोई एजेंट अपने उपयोगकर्ता की ओर से आपसे कुछ खरीदना चाहता है, तो वह लेनदेन कैसा दिखता है?
चेकर चार प्रतिस्पर्धी उत्तरों को मापता है।
x402
x402, HTTP स्थिति कोड 402 (“भुगतान आवश्यक”) को पुनर्जीवित करता है और मशीन-पठनीय प्रस्ताव के साथ एक PAYMENT-REQUIRED हेडर जोड़ता है: मूल्य, मुद्रा, स्वीकृत भुगतान रेल, निपटान समापन बिंदु। एक एजेंट जो 402 प्राप्त करता है वह भुगतान पर हस्ताक्षर करता है, अनुरोध फिर से सबमिट करता है, और संसाधन प्राप्त करता है। चेकर आपके मुखपृष्ठ पर 402 स्थिति या PAYMENT-REQUIRED हेडर और किसी भी समापन बिंदु की जांच करता है।
x402 सबसे कम प्रतिबद्धता वाला विकल्प है। आप एक भुगतान किया हुआ एंडपॉइंट चुनते हैं, शर्तों के साथ 402 लौटाते हैं, और आप अंदर हैं। स्ट्राइप, कॉइनबेस और कई क्रिप्टो निपटान प्रदाता आज प्रवाह का समर्थन करते हैं।
एसीपी (एजेंट कॉमर्स प्रोटोकॉल)
ACP OpenAI का मानक है। यह /.well-known/agentic-commerce पर रहता है और विस्तृत चेकआउट सतह का वर्णन करता है: उत्पाद सूची, मूल्य निर्धारण, कर, शिपिंग, रिटर्न। यदि आप भौतिक या डिजिटल सामान बेचते हैं और आप चाहते हैं कि ChatGPT सीधे आपके स्टोर से लेनदेन करे, तो एसीपी लेन है।
यूसीपी (यूनिवर्सल कॉमर्स प्रोटोकॉल)
OAuth पर UCP पिग्गीबैक। आप अपने OAuth प्राधिकरण सर्वर मेटाडेटा के अंदर ucp:scopes:checkout_session जैसे वाणिज्य क्षेत्र घोषित करते हैं। चेकर आपका OAuth AS दस्तावेज़ प्राप्त करता है और किसी भी ucp:scopes:* मान की खोज करता है। एक मैच में एक पास मिलता है.
यूसीपी चारों में से सबसे हल्का वाणिज्य प्रोटोकॉल है क्योंकि यह आपके पास पहले से मौजूद OAuth परत का पुन: उपयोग करता है। यदि आप किसी भी चीज़ के लिए टोकन भेजते हैं, तो आप आधे रास्ते पर हैं।
एमपीपी (मशीन भुगतान प्रोटोकॉल)
/.well-known/machine-payments पर विज्ञापित MPP, सबसे सामान्य है। यह चेकआउट प्रवाह के बारे में कम और विज्ञापन के बारे में अधिक है कि आपकी सेवा किस प्रकार के मशीन-टू-मशीन भुगतान स्वीकार करती है: स्थिर सिक्के, खाता-से-खाता बैंक रेल, प्रति-टोकन मीटरिंग।
वाणिज्य में पासिंग स्कोर के लिए इन चारों की आवश्यकता नहीं होती है। इसके लिए कम से कम एक की आवश्यकता होती है, क्योंकि “एजेंट आपको भुगतान कर सकते हैं” एक एकल क्षमता है जिसके मालिक होने के लिए चार मानक प्रतिस्पर्धा करते हैं। वह चुनें जो आपके व्यवसाय के लिए उपयुक्त हो और उसे शिप करें।
अंतिम स्कोर का वास्तव में क्या मतलब है
यह टूल पांच श्रेणी के अंकों को एक भारित समग्र ग्रेड में जोड़ता है।
| श्रेणी | वजन |
|---|---|
| खोज योग्यता | 15% |
| सामग्री अभिगम्यता | 20% |
| बॉट एक्सेस कंट्रोल | 15% |
| प्रोटोकॉल डिस्कवरी | 25% |
| एजेंट कॉमर्स | 25% |
85 से अधिक अंक प्राप्त करने वालों को ए मिलता है। 70 और 84 के बीच अंक प्राप्त करने वालों को बी मिलता है। निचले ग्रेड तेजी से गिरते हैं, और यह जानबूझकर किया गया है। डी श्रेणी में स्कोर करने वाली साइट न केवल एजेंटों के लिए अपूर्ण है; यह उनके लिए कार्यात्मक रूप से अदृश्य है। यह टूल का विज्ञापन नहीं करता है, मार्कडाउन की सेवा नहीं देता है, बॉट नीति की घोषणा नहीं करता है, एजेंटिक भुगतान का समर्थन नहीं करता है। ट्रैफ़िक के उस अंश के लिए जो पहले से ही एजेंट द्वारा संचालित है, वह साइट पार्क किए गए डोमेन के रूप में पढ़ी जाती है।
हमारे द्वारा ऑडिट की गई अधिकांश साइटें पहली बार में 10 से 30 के बीच स्कोर करती हैं। यह ठीक है। यह टूल आपको यह जानने के लिए डिज़ाइन किया गया है कि आप कहां हैं और छह उच्चतम-लीवरेज परिवर्तनों को सामने लाते हैं। उनमें से तीन को ठीक करने से आमतौर पर एक साइट एक दिन के अंदर एफ से सी पर आ जाती है।
##चेक कैसे चलाएं
Agent Protocol Readiness Checker पर जाएँ, एक URL चिपकाएँ, और लगभग दस सेकंड प्रतीक्षा करें। परिणाम पृष्ठ में शामिल हैं:
- आपका समग्र स्कोर और पत्र ग्रेड।
- पांच श्रेणी के स्कोर प्रति चेक एक रंगीन स्थिति के साथ होते हैं।
- प्रत्येक चेक के पीछे कच्चा सबूत (हेडर, स्टेटस कोड, मिलान किए गए सबस्ट्रिंग), ताकि आप अपने लॉग के विरुद्ध टूल की रीडिंग को सत्यापित कर सकें।
- शीर्ष सुधारों की प्राथमिकता वाली अनुशंसा सूची।
आप स्टेजिंग डोमेन, आंतरिक उत्पत्ति और उत्पादन के विरुद्ध जाँच चला सकते हैं। यह आउटबाउंड URL सुरक्षा नियमों का सम्मान करता है और कैप्स बॉडी 512 KB पर पढ़ता है इसलिए एक गलत कॉन्फ़िगर किया गया सर्वर आपकी दर सीमा को नष्ट नहीं कर सकता है।
चीजों को ठीक करने का एक व्यावहारिक आदेशयदि आप तेज़ लिफ्ट चाहते हैं, तो क्रम से ये करें:
- GPTBot, ClaudeBot, Google-एक्सटेंडेड, और PerplexityBot के लिए स्पष्ट
User-agent:नियमों के साथ एकSitemap:निर्देश के साथ एक वैध robots.txt प्रकाशित करें। इसे हमारे Robots.txt Validator से सत्यापित करें। - अपने CDN किनारे पर मार्कडाउन सामग्री बातचीत जोड़ें।
Acceptहेडर की जाँच करें, HTML को तुरंत मार्कडाउन में बदलें,Content-Type: text/markdown; charset=utf-8औरVary: Acceptसेट करें। असमर्थित प्रकारों के लिए 406 लौटाएँ। - अपने रूट पर एक llms.txt प्रकाशित करें, जिसमें उन पेजों के संकेतक हों, जिन्हें आप सबसे अधिक एजेंटों द्वारा उद्धृत करना चाहते हैं। इसे हमारे LLMs.txt Generator and Validator के साथ जेनरेट और मान्य करें।
/.well-known/mcp/server-card.jsonपर एक MCP सर्वर कार्ड को एक्सपोज़ करें। यहां तक कि एक न्यूनतम कार्ड (नाम, विवरण, संस्करण, परिवहन) भी एजेंट की खोज को अनलॉक करता है।- robots.txt में सामग्री सिग्नल जोड़ें।
ai-input: yes, ai-train: noघोषित करने वाली एक पंक्ति चेक पास करने और वास्तविक नीति प्रकाशित करने के लिए पर्याप्त है। - एक वेब बॉट प्रामाणिक JWKS प्रकाशित करें ताकि वैध एजेंट आपके मूल के विरुद्ध अनुरोध पर हस्ताक्षर कर सकें।
वह सूची एक सामान्य CDN और एक सामान्य ऑथ सर्वर वाली टीम के लिए लगभग दो इंजीनियर-दिनों के काम की है। यह एक साइट को एफ से बी तक ले जाता है, और यह एजेंट प्रोटोकॉल मंथन के अगले वर्ष के खिलाफ मूल को भविष्य में प्रमाणित करता है।
एक वर्ष में एजेंट की तैयारी कैसी दिखती है
आज टूल द्वारा चलाए जाने वाले चेक की सटीक सूची बारह महीनों में चलने वाली सूची नहीं होगी। एमसीपी औपचारिक क्षमता वार्ता विनिर्देश की पुष्टि करेगा। एजेंट स्किल्स का ओपनएपीआई के कुछ हिस्सों के साथ विलय हो जाएगा या उन्हें प्रतिस्थापित कर दिया जाएगा। एसीपी, यूसीपी और एमपीपी कम, मजबूत मानकों में समेकित होंगे। जैसे ही जांचें शुरू होंगी हम उन्हें जोड़ देंगे और जांचें डिफ़ॉल्ट हो जाने पर उन्हें हटा देंगे।
जो नहीं बदलेगा वह है समस्या का स्वरूप। एजेंट पहले कुछ अनुरोधों में तय करते हैं कि आपकी साइट उपयोग करने लायक है या नहीं। आपका काम जल्दी और स्पष्ट रूप से यह उजागर करना है कि आपकी साइट क्या कर सकती है और इसका उपयोग कैसे करना है। चेकर जिस भी सिग्नल की तलाश करता है वह एक शॉर्टकट होता है जो एजेंट को इसे छोड़ने के बजाय आपके मूल के प्रति प्रतिबद्ध होने देता है।
अपने मुखपृष्ठ पर Agent Protocol Readiness Checker चलाएँ। शीर्ष तीन अनुशंसाओं को ठीक करें. इसे फिर से चलाएँ. देखें कि उन तीन परिवर्तनों के बाद एजेंट आपकी साइट के साथ किस प्रकार भिन्न व्यवहार करते हैं।
संबंधित पढ़ना
- The Complete Guide to Answer Engine Optimization (AEO) and GEO
- सामग्री-संरचना और एलएलएम crawl स्कोरिंग के लिए AI Readiness Checker
- भाषा मॉडलों के लिए आपकी साइट का एक साफ़ मानचित्र प्रकाशित करने के लिए LLMs.txt Generator and Validator
Vary,Linkऔर सामग्री-प्रकार हेडर एजेंटों को सत्यापित करने के लिए HTTP Header Checker पर निर्भर करते हैं