Header Ads

  • Latest Post

    Robots.txt file क्या है? Blog के लिए क्यों जरूरी है।



      दोस्तों जो नए ब्लॉगर होते है उन्हें ज्यादातर ऐसे बहुत से फीचर के बारे में नही पता होता है। और न ही वो इसकी अच्छे से सेटिंग्स कर पाते है मै उन सभी ब्लॉगर की मदत करना चाहता हूँ जिससे वो भी एक कामयाब ब्लॉगर बने और वो लोग भी ब्लॉग से अच्छा पैसा कमाये। तो चलिए शुरू करते हैं।




    Robots.txt क्या है?

    Robots.txt एक Text फ़ाइल है जिसमें सरल कोड की कुछ पंक्तियाँ हैं। यह वेबसाइट या ब्लॉग के सर्वर पर सहेजा जाता है जो वेब क्रॉलर्स को खोज परिणामों में अपने ब्लॉग को इंडेक्स और क्रॉल करने का निर्देश देता है। इसकी मदत से  आप अपने ब्लॉग पर वेब क्रॉलर्स से किसी भी वेब पेज को प्रतिबंधित कर सकते हैं, ताकि इसे अपने ब्लॉग लेबल पृष्ठ, आपके डेमो पेज या किसी अन्य पृष्ठ जैसे खोज इंजनों में अनुक्रमित (Indexed) नहीं किया जा सके जो अनुक्रमित करने के लिए महत्वपूर्ण नहीं हैं। हमेशा याद रखें कि खोज क्रॉलर्स किसी वेब पेज को क्रॉल करने से पहले robots.txt फ़ाइल को स्कैन करता हैं।

    ब्लॉगर पर होस्ट किए गए प्रत्येक ब्लॉग की अपनी डिफ़ॉल्ट robots.txt फ़ाइल होती है जो कुछ इस तरह दिखती है:

    User-agent: Mediapartners-Google
    Disallow:
    User-agent: *
    Disallow: /search
    Allow: /
    Sitemap: http://example.blogspot.com/feeds/posts/default?orderby=UPDATED
    

    स्पष्टीकरण




    यह कोड तीन खंडों में विभाजित है। चलो पहले उनमें से प्रत्येक का अध्ययन करें, हम सीखें कि ब्लॉगस्पॉट ब्लॉग्स में कस्टम robots.txt फ़ाइल कैसे जोड़ें।

    1:- User-agent: Mediapartners-Google

    यह कोड Google ऐडसेंस रोबोटों के लिए है जो उन्हें अपने ब्लॉग पर बेहतर विज्ञापन देने में मदद करता है।

    2:- User-agent: *

    User-agent: *यह तारांकन चिह्न (*) के साथ चिह्नित सभी रोबोटों के लिए है डिफ़ॉल्ट सेटिंग में हमारे ब्लॉग के लेबल लिंक खोज क्रॉलर्स द्वारा अनुक्रमित करने के लिए प्रतिबंधित हैं जिसका मतलब है कि वेब क्रॉलर हमारे लेबल पृष्ठ लिंक को नीचे कोड के कारण नहीं दिखाएंगे।

     Disallow: /search

    इसका मतलब होता है कि शब्द खोज करने वाले लिंक्स के बाद ही डोमेन नाम को अनदेखा कर दिया जाएगा। नीचे दिए गए उदाहरण देखें, जो SEO नामक लेबल पेज का लिंक है।


    https://www.hinditechnews.com/search/label/SEO

    और अगर हम Disallow: /search  निकाल देते हैं तो फिर क्रॉलर्स हमारे संपूर्ण ब्लॉग को इंडेक्स में एक्सेस करेंगे और इसकी सारी सामग्री और वेब पेज क्रॉल करेंगे।

    यहां Allow: / मुखपृष्ठ से संदर्भित करता है जिसका मतलब है कि वेब क्रॉलर हमारे ब्लॉग के होमपेज को क्रॉल और Index कर सकते हैं।





    अस्वीकार विशिष्ट पोस्ट

    अब मान लीजिए कि यदि हम अनुक्रमण से एक विशेष पोस्ट को बाहर करना चाहते हैं तो हम कोड में नीचे पंक्ति जोड़ सकते हैं।


    : /yyyy/mm/post-url.html

    यहां पर yyyy और mm जो है वो वर्ष और महीने को संदर्भित करता है। मतलब आपने उस पोस्ट को कौन से से साल और कौन से महीने में लिखे थे उदाहरण के लिए, यदि आपने जुलाई 2016 में प्रकाशित ( Publish)किया है तो  उसे आपको इस तरह से लिखना होगा। नीचे देखे example....


    : /2016/07/post-url.html

    यह कार्य आसान बनाने के लिए, आप बस पोस्ट यूआरएल की प्रतिलिपि बना सकते हैं और शुरुआत से ही ब्लॉग का नाम निकाल सकते हैं।


    अस्वीकृत विशेष पृष्ठ

    यदि हमें किसी विशेष पृष्ठ को अस्वीकार करने की आवश्यकता है तो हम इसके बाद के संस्करण के समान पद्धति का उपयोग कर सकते हैं। बस पृष्ठ यूआरएल की प्रतिलिपि बनाएँ और उस से ब्लॉग पते को हटा दें जो कुछ इस तरह दिखेंगे। नीचे देखे।


    : /p/page-url.html

    साइटमैप:

    ://example.blogspot.com/feeds/posts/default?orderby=

    यह कोड हमारे ब्लॉग के साइटमैप को संदर्भित करता है। यहां साइटमैप लिंक जोड़कर हम बस हमारे ब्लॉग की क्रॉलिंग दर को अनुकूलित कर रहे हैं। जब भी वेब क्रॉलर्स हमारी robots.txt फ़ाइल को स्कैन करते हैं, तब वे हमारे साइटमैप का पथ पा सकते हैं जहां हमारे प्रकाशित पोस्ट के सभी लिंक मौजूद होते हैं। वेब क्रॉलर्स को हमारे सभी पदों को क्रॉल करने में आसान लगता है। इसलिए, बेहतर संभावनाएं हैं कि वेब क्रॉलर किसी भी एक को अनदेखा किए बिना हमारे सभी ब्लॉग पोस्ट क्रॉल करते हैं

    Custom Robots Header Tag क्या है और ब्लॉग में कैसे Add करते है।




    नोट: यह साइटमैप केवल 25 क्रॉलर के बारे में बताएगा, जो हाल में 25 पोस्ट हैं। यदि आप अपने साइटमैप में लिंक की संख्या में वृद्धि करना चाहते हैं, तो नीचे एक के साथ डिफ़ॉल्ट साइटमैप की जगह आपको  अपने ब्लॉग का एक sitemap बनाना होगा Sitemap कैसे बनाते है और Sitemap को कैसे add करते है उसकी पूरी जानकारी यहाँ पर है ये Sitemap 500 Recent Post के लिए काम करेगा। ये sitemap इस तरह से होगा नीचे देखे example....

    Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500

    यदि आपके पास अपने ब्लॉग में 500 से अधिक प्रकाशित पोस्ट हैं तो आप दो साइटमैप का उपयोग कर सकते हैं नीचे देखे example....

    Also Read:-

    Robots. txt फाइल कैसे बनाते है और उसे ब्लॉग में कैसे add करते है?
    Blog का sitemap कैसे बनाते है।



    Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500
    Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=500&max-results=1000

    तो दोस्तों अब आप लोग समझ गए होंगे कि robots.txt क्या होता है और क्यों जरूरी होता है ब्लॉग के लिए।
       अगर आपको कोई समस्या या हो तो मुझे comment में ज़रूर बताये। और अगर कोई सवाल हो तो Contact us पर मुझसे संपर्क करे या अपने सवाल के बारे में पूरी details में Ask Question पेज पर भेजे।




    2 comments:

    1. post free classified ads in india- find the latest classified ads for mobiles,
      property,cars,services and many more in Hyd143.com

      ReplyDelete