Robots.txt یکی از سادهترین فایلهای یک وبسایت است، اما در عین حال یکی از سادهترین فایلها برای به هم ریختن است. فقط یک کاراکتر بی جا می تواند سئوی شما را خراب کند و موتورهای جستجو را از دسترسی به محتوای مهم سایت شما باز دارد.
به همین دلیل است که پیکربندی نادرست robots.txt بسیار رایج است – حتی در بین متخصصان باتجربه SEO.
در این راهنما، یاد خواهید گرفت:
فایل robots.txt چیست
robots.txt چه شکلی است
عوامل و دستورالعمل های کاربر Robots.txt
این که آیا به فایل robots.txt نیاز دارید
چگونه فایل robots.txt خود را پیدا کنیم
چگونه یک فایل robots.txt ایجاد کنیم
بهترین شیوه های Robots.txt
نمونه فایل robots.txt
چگونه فایل robots.txt خود را برای مشکلات بررسی کنیم
راهنمای مبتدیان برای سئو فنی
در سئو فنی جدید هستید؟ ما را بررسی کنید
راهنمای مبتدیان برای سئو فنی
فایل robots.txt چیست؟
یک فایل robots.txt به موتورهای جستجو می گوید که کجا می توانند در سایت شما بروند و کجا نمی توانند بروند.
در درجه اول، تمام محتوایی را که می خواهید از موتورهای جستجو مانند Google قفل کنید، فهرست می کند. همچنین می توانید به برخی از موتورهای جستجو (نه گوگل) بگویید که چگونه می توانند محتوای مجاز را بخزند.
یادداشت مهم
بیشتر موتورهای جستجو مطیع هستند. آنها عادت به شکستن ورودی ندارند. با این حال، برخی از انتخاب چند قفل استعاری خجالتی نیستند.
گوگل یکی از آن موتورهای جستجو نیست. آنها از دستورالعمل های یک فایل robots.txt پیروی می کنند.
فقط بدانید که برخی از موتورهای جستجو کاملاً آن را نادیده می گیرند.
فایل robots.txt چگونه است؟
فرمت اصلی یک فایل robots.txt در اینجا آمده است:
نقشه سایت: [محل URL نقشه سایت]
عامل کاربر: [شناسه ربات]
عامل کاربر: [شناسه ربات دیگر]
اگر قبلا یکی از این فایل ها را ندیده اید، ممکن است دلهره آور به نظر برسد. با این حال، نحو بسیار ساده است. به طور خلاصه، شما قوانینی را به رباتها اختصاص میدهید که عامل کاربر آنها را به همراه دستورالعملها بیان کنید.
بیایید این دو جزء را با جزئیات بیشتری بررسی کنیم.
عامل های کاربر
هر موتور جستجو خود را با یک عامل کاربر متفاوت شناسایی می کند. می توانید دستورالعمل های سفارشی را برای هر یک از اینها در فایل robots.txt خود تنظیم کنید. صدها عامل کاربر وجود دارد ، اما در اینجا چند مورد مفید برای سئو وجود دارد:
گوگل: Googlebot
تصاویر گوگل: Googlebot-Image
بینگ: Bingbot
یاهو: Slurp
بایدو : بایدو اسپایدر
DuckDuckGo: DuckDuckBot
SIDENOTE. همه عوامل کاربر در robots.txt به حروف بزرگ و کوچک حساس هستند.
همچنین میتوانید از علامت ستاره (*) برای تخصیص دستورالعملها به همه عوامل کاربر استفاده کنید.
به عنوان مثال، فرض کنید میخواستید همه رباتها به جز Googlebot را از خزیدن در سایت خود مسدود کنید. در اینجا نحوه انجام این کار به شرح زیر است:
عامل کاربر: *
غیر مجاز:/
عامل کاربر: Googlebot
اجازه: /
بدانید که فایل robots.txt شما میتواند شامل دستورالعملهایی برای هر تعداد کاربر عامل باشد. گفته میشود، هر بار که یک کاربر-عامل جدید را اعلام میکنید، به عنوان یک صفحه تمیز عمل میکند. به عبارت دیگر، اگر دستورالعملهایی را برای چندین عامل کاربر اضافه کنید، دستورالعملهای اعلامشده برای عامل کاربر اول برای عامل دوم، سوم، یا چهارم و غیره اعمال نمیشود.
استثنای این قانون زمانی است که یک کاربر-عامل را بیش از یک بار اعلام کنید. در آن صورت، تمام بخشنامه های مربوطه ترکیب شده و دنبال می شود.
یادداشت مهم
خزنده ها فقط از قوانینی که در زیر عامل(های) کاربر اعلام شده پیروی می کنند که دقیق ترین آنها را اعمال می کند . به همین دلیل است که فایل robots.txt بالا همه ربات ها به جز Googlebot (و سایر ربات های گوگل) را از خزیدن در سایت مسدود می کند. Googlebot اعلامیه کمتر خاص عامل کاربر را نادیده می گیرد.
دستورالعمل ها
دستورالعملها قوانینی هستند که میخواهید عوامل کاربر اعلامشده از آنها پیروی کنند.
دستورالعمل های پشتیبانی شده
در اینجا دستورالعمل هایی وجود دارد که Google در حال حاضر از آنها پشتیبانی می کند، همراه با استفاده از آنها.
غیر مجاز
از این دستورالعمل برای دستور دادن به موتورهای جستجو برای عدم دسترسی به فایل ها و صفحاتی که در یک مسیر خاص قرار دارند استفاده کنید. برای مثال، اگر میخواهید همه موتورهای جستجو را از دسترسی به وبلاگ خود و همه پستهای آن مسدود کنید، ممکن است فایل robots.txt شما به شکل زیر باشد:
عامل کاربر: *
غیر مجاز: /blog
SIDENOTE. اگر نتوانید مسیری را بعد از دستور غیر مجاز تعریف کنید، موتورهای جستجو آن را نادیده می گیرند.
اجازه
از این دستورالعمل استفاده کنید تا به موتورهای جستجو اجازه دهید یک زیر شاخه یا صفحه را بخزند – حتی در یک فهرست غیر مجاز. به عنوان مثال، اگر میخواهید از دسترسی موتورهای جستجو به هر پستی در وبلاگ خود به جز یک پست جلوگیری کنید، ممکن است فایل robots.txt شما به شکل زیر باشد:
عامل کاربر: *
غیر مجاز: /blog
مجاز: /blog/allowed-post
در این مثال، موتورهای جستجو می توانند به /blog/allowed-post. اما آنها نمی توانند دسترسی داشته باشند:
/blog/another-post
/blog/yet-another-post
/blog/download-me.pdf
هم گوگل و هم بینگ از این دستورالعمل پشتیبانی می کنند.
SIDENOTE. همانند دستورالعمل Disallow، اگر نتوانید مسیری را بعد از دستورالعمل مجاز تعریف کنید، موتورهای جستجو آن را نادیده می گیرند.
یادداشتی در مورد قوانین متضاد
مگر اینکه مراقب باشید، دستورات را به راحتی نمیتوانید در تضاد با یکدیگر قرار دهید. در مثال زیر، ما دسترسی به را ممنوع کرده /blog/ و اجازه دسترسی به آن را می دهیم /blog.
عامل کاربر: *
غیر مجاز: /blog/
مجاز: /blog
در این مورد، به /blog/post-title/ نظر می رسد URL هم غیر مجاز و هم مجاز است. پس کدام برنده است؟
برای گوگل و بینگ، قانون این است که دستورالعملی که بیشترین کاراکتر را داشته باشد برنده است. در اینجا، این دستورالعمل عدم اجازه است.
Disallow: /blog/ (6 کاراکتر)
Allow: /blog (5 کاراکتر)
اگر طول دستورالعملهای مجاز و غیرمجاز برابر باشند، آنگاه دستورالعملهای محدودکننده برنده میشوند. در این مورد، این دستورالعمل اجازه خواهد بود.
SIDENOTE. در اینجا، /blog (بدون اسلش انتهایی ) همچنان قابل دسترسی و خزیدن است.
مهمتر از همه، این فقط برای گوگل و بینگ صادق است. سایر موتورهای جستجو به اولین دستورالعمل تطبیق گوش می دهند. در این مورد، این غیر مجاز است.
نقشه سایت
از این دستورالعمل برای تعیین مکان نقشه(های) سایت خود برای موتورهای جستجو استفاده کنید. اگر با نقشه های سایت آشنایی ندارید، معمولاً شامل صفحاتی می شود که می خواهید موتورهای جستجو آن ها را خزیده و فهرست بندی کنند.
در اینجا نمونه ای از فایل robots.txt با استفاده از دستورالعمل نقشه سایت آورده شده است:
نقشه سایت: https://www.domain.com/sitemap.xml
عامل کاربر: *
غیر مجاز: /blog/
مجاز: /blog/post-title/
گنجاندن نقشه(های) سایت شما در فایل robots.txt چقدر اهمیت دارد؟ اگر قبلاً از طریق کنسول جستجو ارسال کردهاید، برای Google تا حدودی زائد است. با این حال، به موتورهای جستجوی دیگر مانند بینگ میگوید که نقشه سایت شما را کجا پیدا کنند، بنابراین هنوز هم تمرین خوبی است.
توجه داشته باشید که لازم نیست دستورالعمل نقشه سایت را چندین بار برای هر کاربر-عامل تکرار کنید. فقط در مورد یکی صدق نمی کند. بنابراین بهتر است دستورالعمل های نقشه سایت را در ابتدا یا انتهای فایل robots.txt خود قرار دهید. مثلا:
نقشه سایت: https://www.domain.com/sitemap.xml
عامل کاربر: Googlebot
غیر مجاز: /blog/
مجاز: /blog/post-title/
عامل کاربر: Bingbot
غیر مجاز: /services/
گوگل مانند Ask، Bing و Yahoo از دستورالعمل نقشه سایت پشتیبانی می کند .
SIDENOTE. می توانید هر تعداد نقشه سایت را که دوست دارید در فایل robots.txt خود قرار دهید.
دستورالعمل های پشتیبانی نشده
در اینجا دستورالعمل هایی وجود دارد که دیگر توسط Google پشتیبانی نمی شوند – برخی از آنها از نظر فنی هرگز پشتیبانی نمی شوند.
خزیدن-تاخیر
قبلاً میتوانستید از این دستورالعمل برای تعیین تأخیر خزیدن در چند ثانیه استفاده کنید. برای مثال، اگر میخواهید Googlebot بعد از هر عمل خزیدن 5 ثانیه صبر کند، تاخیر خزیدن را روی 5 تنظیم میکنید:
عامل کاربر: Googlebot
تاخیر خزیدن: 5
گوگل دیگر از این دستورالعمل پشتیبانی نمی کند، اما بینگ و یاندکس از آن پشتیبانی می کنند.
با این حال، هنگام تنظیم این دستورالعمل مراقب باشید، به خصوص اگر سایت بزرگی دارید. اگر تاخیر خزیدن را 5 ثانیه تنظیم کنید، رباتها را محدود میکنید که حداکثر 17280 URL در روز بخزند. اگر میلیونها صفحه دارید این خیلی مفید نیست، اما اگر وبسایت کوچکی داشته باشید میتواند در پهنای باند صرفهجویی کند.
Noindex
این دستورالعمل هرگز به طور رسمی توسط گوگل پشتیبانی نشد. با این حال، تا همین اواخر، گمان میرفت که گوگل دارای «کدی است که قوانین پشتیبانینشده و منتشر نشده (مانند noindex) را کنترل میکند. بنابراین اگر میخواهید از فهرست کردن همه پستهای وبلاگتان توسط گوگل جلوگیری کنید، میتوانید از دستورالعمل زیر استفاده کنید:
عامل کاربر: Googlebot
Noindex: /blog/
با این حال، در 1 سپتامبر 2019، گوگل به صراحت اعلام کرد که این دستورالعمل پشتیبانی نمی شود . اگر می خواهید صفحه یا فایلی را از موتورهای جستجو حذف کنید، به جای آن از تگ متا روبات یا هدر HTTP x-robots استفاده کنید.
Nofollow
این دستور دیگری است که گوگل هرگز به طور رسمی از آن پشتیبانی نکرد و برای دستور دادن به موتورهای جستجو برای عدم دنبال کردن پیوندها در صفحات و فایلها در یک مسیر خاص استفاده شد. برای مثال، اگر میخواهید Google را از دنبال کردن همه پیوندهای موجود در وبلاگ خود منع کنید، میتوانید از دستورالعمل زیر استفاده کنید:
عامل کاربر: Googlebot
Nofollow: /blog/
گوگل اعلام کرد که این دستورالعمل در تاریخ 1 سپتامبر 2019 به طور رسمی پشتیبانی نمیشود. اگر میخواهید اکنون همه پیوندهای یک صفحه را فالو کنید، باید از متا تگ robots یا هدر x-robots استفاده کنید. اگر می خواهید به گوگل بگویید که پیوندهای خاصی را در یک صفحه دنبال نکند، از ویژگی پیوند rel=”nofollow” استفاده کنید.
آیا به فایل robots.txt نیاز دارید؟
داشتن فایل robots.txt برای بسیاری از وب سایت ها، به خصوص وب سایت های کوچک، حیاتی نیست.
گفته شد، دلیل خوبی برای نداشتن آن وجود ندارد. این به شما کنترل بیشتری بر روی مکانهایی که موتورهای جستجو میتوانند و نمیتوانند در وبسایت شما مراجعه کنند، میدهد و این میتواند در مواردی مانند:
جلوگیری از خزیدن محتوای تکراری ؛
خصوصی نگه داشتن بخش های یک وب سایت (به عنوان مثال، سایت استیجینگ شما).
جلوگیری از خزیدن صفحات نتایج جستجوی داخلی؛
جلوگیری از اضافه بار سرور؛
جلوگیری از هدر دادن « بودجه خزیدن » توسط گوگل .
جلوگیری از نمایش تصاویر ، ویدئوها و فایل های منابع در نتایج جستجوی گوگل.
توجه داشته باشید که اگرچه Google معمولاً صفحات وب مسدود شده در robots.txt را فهرست نمی کند، هیچ راهی برای تضمین حذف از نتایج جستجو با استفاده از فایل robots.txt وجود ندارد.
همانطور که گوگل می گوید ، اگر محتوا از مکان های دیگر در وب به آن پیوند داده شود، ممکن است همچنان در نتایج جستجوی گوگل ظاهر شود.
چگونه فایل robots.txt خود را پیدا کنیم
اگر قبلاً یک فایل robots.txt در وب سایت خود دارید، در domain.com/robots.txt قابل دسترسی است. به URL موجود در مرورگر خود بروید. اگر چیزی شبیه به این را مشاهده کردید، یک فایل robots.txt دارید:
ربات های ahrefs 5
چگونه یک فایل robots.txt ایجاد کنیم
اگر از قبل فایل robots.txt ندارید، ایجاد آن آسان است. فقط یک سند txt خالی را باز کنید و شروع به تایپ دستورالعمل ها کنید. به عنوان مثال، اگر می خواهید همه موتورهای جستجو را از خزیدن /admin/دایرکتوری خود منع کنید، چیزی شبیه به این خواهد بود:
عامل کاربر: *
غیر مجاز: /admin/
به ایجاد دستورالعمل ها ادامه دهید تا زمانی که از آنچه دارید راضی باشید. فایل خود را به عنوان “robots.txt” ذخیره کنید.
همچنین، میتوانید از یک مولد robots.txt مانند این استفاده کنید .
خالق ربات ها 3
مزیت استفاده از ابزاری مانند این این است که خطاهای نحوی را به حداقل می رساند. این خوب است زیرا یک اشتباه می تواند منجر به یک فاجعه سئو برای سایت شما شود – بنابراین باید احتیاط کرد.
نقطه ضعف این است که آنها از نظر شخصی سازی تا حدودی محدود هستند.
فایل robots.txt خود را کجا قرار دهید
فایل robots.txt خود را در دایرکتوری ریشه ساب دامنه ای که برای آن اعمال می شود قرار دهید. به عنوان مثال، برای کنترل رفتار خزیدن در domain.com ، فایل robots.txt باید در domain.com/robots.txt قابل دسترسی باشد .
اگر میخواهید خزیدن در زیر دامنهای مانند blog.domain.com را کنترل کنید، فایل robots.txt باید در blog.domain.com/robots.txt قابل دسترسی باشد .
بهترین شیوه های فایل Robots.txt
برای جلوگیری از اشتباهات رایج این موارد را در نظر داشته باشید.
برای هر دستورالعمل از یک خط جدید استفاده کنید
هر بخشنامه باید روی خط جدیدی قرار گیرد. در غیر این صورت، موتورهای جستجو را گیج می کند.
بد:
User-agent: * Disallow: /directory/ Disallow: /ather-directory/
خوب:
عامل کاربر: *
غیر مجاز: /directory/
غیر مجاز: /ather-directory/
برای ساده کردن دستورالعمل ها از حروف عام استفاده کنید
نه تنها میتوانید از علامتهای عام (*) برای اعمال دستورالعملها به همه عوامل کاربر، بلکه برای مطابقت با الگوهای URL هنگام اعلام دستورالعملها استفاده کنید. به عنوان مثال، اگر میخواهید موتورهای جستجو را از دسترسی به URLهای دستهبندی محصولات پارامترشده در سایت خود جلوگیری کنید، میتوانید آنها را به صورت زیر فهرست کنید:
عامل کاربر: *
غیر مجاز: /محصولات/تی شرت؟
غیر مجاز: /products/hoodies؟
غیر مجاز: /products/jackets?
…
اما این خیلی کارآمد نیست. بهتر است کارها را با یک وایلدکارت مانند این ساده کنید:
عامل کاربر: *
غیر مجاز: /products/*؟
این مثال موتورهای جستجو را از خزیدن همه URL های زیر پوشه /product/ که دارای علامت سوال هستند مسدود می کند. به عبارت دیگر، هر URL دسته بندی محصول پارامتری شده است.
برای مشخص کردن انتهای URL از “$” استفاده کنید
علامت “$” را برای نشان دادن انتهای URL اضافه کنید. برای مثال، اگر میخواهید از دسترسی موتورهای جستجو به همه فایلهای pdf. در سایت خود جلوگیری کنید، ممکن است فایل robots.txt شما به شکل زیر باشد:
عامل کاربر: *
غیر مجاز: /*.pdf$
در این مثال، موتورهای جستجو نمی توانند به URL هایی که با .pdf ختم می شوند دسترسی پیدا کنند. این بدان معناست که آنها نمی توانند به /file.pdf دسترسی داشته باشند، اما می توانند به /file.pdf?id=68937586 دسترسی داشته باشند زیرا با “.pdf” ختم نمی شود.
از هر user-agent فقط یک بار استفاده کنید
اگر چندین بار یک کاربر عامل را مشخص کنید، گوگل اهمیتی نمیدهد. این فقط تمام قوانین را از اعلامیه های مختلف در یک ترکیب می کند و از همه آنها پیروی می کند. برای مثال، اگر در فایل robots.txt خود، user-agent ها و دستورالعمل های زیر را داشتید…
عامل کاربر: Googlebot
غیر مجاز: /a/
عامل کاربر: Googlebot
غیر مجاز: /b/
… Googlebot هیچ یک از این زیرپوشه ها را نمی خزد.
با این حال، منطقی است که هر کاربر-عامل را فقط یک بار اعلام کنید زیرا کمتر گیج کننده است. به عبارت دیگر، با ساده و مرتب نگه داشتن چیزها کمتر مرتکب اشتباهات مهم می شوید.
برای جلوگیری از خطاهای ناخواسته از ویژگی استفاده کنید
عدم ارائه دستورالعمل های خاص در هنگام تنظیم دستورالعمل ها می تواند منجر به اشتباهاتی شود که به راحتی از قلم می افتند و می توانند تأثیر فاجعه باری بر SEO شما داشته باشند. به عنوان مثال، فرض کنید که شما یک سایت چند زبانه دارید و روی یک نسخه آلمانی کار می کنید که در زیر شاخه /de/ موجود خواهد بود.
از آنجایی که کاملاً آماده کار نیست، میخواهید از دسترسی موتورهای جستجو به آن جلوگیری کنید.
فایل robots.txt زیر از دسترسی موتورهای جستجو به آن زیرپوشه و همه چیز در آن جلوگیری می کند:
عامل کاربر: *
غیر مجاز: /de
اما همچنین از خزیدن موتورهای جستجو در هر صفحه یا فایلی که با شروع می شود جلوگیری می /deکند.
مثلا:
/designer-dresses/
/delivery-information.html
/depeche-mode/t-shirts/
/definitely-not-for-public-viewing.pdf
در این مثال، راه حل ساده است: یک اسلش انتهایی اضافه کنید.
عامل کاربر: *
غیر مجاز: /de/
از نظرات برای توضیح فایل robots.txt خود برای انسان ها استفاده کنید
نظرات به توضیح فایل robots.txt برای توسعه دهندگان و حتی خود آینده شما کمک می کند. برای درج نظر، خط را با هش (#) شروع کنید.
# این به بینگ دستور می دهد تا سایت ما را نخزد.
عامل کاربر: Bingbot
غیر مجاز:/
خزنده ها همه چیز را در خطوطی که با هش شروع می شوند نادیده می گیرند.
برای هر زیر دامنه از یک فایل robots.txt جداگانه استفاده کنید
Robots.txt فقط رفتار خزیدن را در زیر دامنه ای که میزبان آن است کنترل می کند. اگر میخواهید خزیدن در یک زیر دامنه متفاوت را کنترل کنید، به یک فایل robots.txt جداگانه نیاز دارید.
برای مثال، اگر سایت اصلی شما در domain.com و وبلاگ شما در blog.domain.com قرار دارد ، به دو فایل robots.txt نیاز دارید. یکی باید در دایرکتوری ریشه دامنه اصلی و دیگری در دایرکتوری ریشه وبلاگ برود.
نمونه فایل robots.txt
در زیر چند نمونه از فایل های robots.txt آورده شده است. اینها عمدتاً برای الهام گرفتن هستند، اما اگر موردی با نیازهای شما مطابقت داشت، آن را در یک سند متنی کپی کنید، آن را به عنوان “robots.txt” ذخیره کنید و در دایرکتوری مناسب آپلود کنید.
دسترسی همه جانبه برای همه ربات ها
عامل کاربر: *
غیر مجاز:
SIDENOTE.عدم اعلام یک URL پس از یک دستورالعمل، آن دستورالعمل را اضافی می کند. به عبارت دیگر، موتورهای جستجو آن را نادیده می گیرند. به همین دلیل است که این بخشنامه عدم اجازه تاثیری بر سایت ندارد. موتورهای جستجو همچنان می توانند تمام صفحات و فایل ها را بخزند.
دسترسی برای همه ربات ها وجود ندارد
عامل کاربر: *
غیر مجاز:/
یک زیر شاخه را برای همه ربات ها مسدود کنید
عامل کاربر: *
غیر مجاز: /folder/
مسدود کردن یک زیر شاخه برای همه ربات ها (با یک فایل در داخل مجاز)
عامل کاربر: *
غیر مجاز: /folder/
مجاز: /folder/page.html
یک فایل را برای همه ربات ها مسدود کنید
عامل کاربر: *
غیر مجاز: /this-is-a-file.pdf
یک نوع فایل (PDF) را برای همه ربات ها مسدود کنید
عامل کاربر: *
غیر مجاز: /*.pdf$
تمام URL های پارامتری شده را فقط برای Googlebot مسدود کنید
عامل کاربر: Googlebot
غیر مجاز: /*؟
چگونه فایل robots.txt خود را برای خطا بررسی کنیم
اشتباهات Robots.txt می توانند نسبتاً به راحتی از شبکه عبور کنند، بنابراین توجه به مشکلات مفید است.
برای انجام این کار، به طور مرتب مشکلات مربوط به robots.txt را در گزارش «پوشش» در Search Console بررسی کنید. در زیر برخی از خطاهایی که ممکن است مشاهده کنید، معنی آنها و نحوه رفع آنها آورده شده است.
آیا باید خطاهای مربوط به یک صفحه خاص را بررسی کنید؟
یک URL را در ابزار بازرسی URL گوگل در کنسول جستجو جایگذاری کنید. اگر توسط robots.txt مسدود شده باشد، باید چیزی شبیه به این را ببینید:
توسط روبات txt مسدود شده است
URL ارسال شده توسط robots.txt مسدود شده است
آدرس اینترنتی ارسال شده توسط روبات ها مسدود شده است 3
این بدان معناست که حداقل یکی از URL های موجود در نقشه(های) سایت ارسالی شما توسط robots.txt مسدود شده است.
اگر نقشه سایت خود را به درستی ایجاد کرده اید و صفحات متعارف ، بدون فهرست و هدایت شده را حذف کرده اید، هیچ صفحه ارسالی نباید توسط robots.txt مسدود شود . اگر چنین هستند، بررسی کنید که کدام صفحات تحت تأثیر قرار گرفته اند، سپس فایل robots.txt خود را بر اساس آن تنظیم کنید تا بلوک آن صفحه حذف شود.
میتوانید از آزمایشکننده robots.txt Google استفاده کنید تا ببینید کدام دستورالعمل محتوا را مسدود میکند. فقط هنگام انجام این کار مراقب باشید. مرتکب اشتباهاتی که صفحات و فایل های دیگر را تحت تاثیر قرار می دهد آسان است.
توسط robots.txt مسدود شده است
این بدان معناست که شما محتوای مسدود شده توسط robots.txt دارید که در حال حاضر در Google فهرست نشده است.
اگر این محتوا مهم است و باید ایندکس شود، بلوک خزیدن را در robots.txt حذف کنید. (همچنین ارزش این را دارد که مطمئن شوید که محتوا بدون فهرست نیست). اگر محتوایی را در robots.txt به قصد حذف آن از فهرست Google مسدود کردهاید، بلوک خزیدن را حذف کنید و به جای آن از متا تگ robots یا x-robots-header استفاده کنید. این تنها راه برای تضمین حذف محتوا از فهرست گوگل است.
حذف بلوک خزیدن هنگام تلاش برای حذف یک صفحه از نتایج جستجو بسیار مهم است. این کار را انجام ندهید، و گوگل تگ noindex یا هدر HTTP را نمی بیند—بنابراین ایندکس می شود.
ایندکس شده، اگرچه توسط robots.txt مسدود شده است
ایندکس شده هر چند مسدود شده 3
این بدان معناست که برخی از محتوای مسدود شده توسط robots.txt همچنان در گوگل ایندکس می شوند.
بار دیگر، اگر میخواهید این محتوا را از نتایج جستجوی Google حذف کنید، robots.txt راهحل درستی نیست. بلوک خزیدن را بردارید و به جای آن از یک تگ متا روبات یا هدر HTTP تگ x-robots برای جلوگیری از نمایه سازی استفاده کنید.
اگر به طور تصادفی این محتوا را مسدود کرده اید و می خواهید آن را در فهرست گوگل نگه دارید، بلوک خزیدن را در robots.txt حذف کنید. این ممکن است به بهبود دید محتوا در جستجوی Google کمک کند.
مطالعه توصیه شده: نحوه رفع «ایندکس شده، هرچند مسدود شده توسط robots.txt» در GSC
سوالات متداول
در اینجا چند سؤال متداول وجود دارد که به طور طبیعی در جای دیگر راهنمای ما نمی گنجد. اگر موردی از دست رفته است، در نظرات به ما اطلاع دهید و ما بخش را متناسب با آن به روز خواهیم کرد.
حداکثر اندازه یک فایل robots.txt چقدر است؟
500 کیلوبایت (تقریبا).
robots.txt در وردپرس کجاست؟
همان مکان: domain.com/robots.txt .
چگونه robots.txt را در وردپرس ویرایش کنم؟
یا به صورت دستی یا با استفاده از یکی از بسیاری از افزونه های SEO وردپرس مانند Yoast که به شما امکان می دهد robots.txt را از باطن وردپرس ویرایش کنید.
چه اتفاقی میافتد اگر دسترسی به محتوای بدون فهرست شده در robots.txt را ممنوع کنم؟
گوگل هرگز دستورالعمل noindex را نخواهد دید زیرا نمی تواند صفحه را بخزد.
مسدود کردن DYK یک صفحه با هر دو غیر مجاز robots.txt و noindex در صفحه چندان منطقی نیست زیرا Googlebot نمی تواند noindex را «ببیند»؟