فایل Robots.txt چیست و چگونه می توان آن را ساخت؟

مقاله امروز را می خواهیم با یک مثال ساده شروع کنیم. حتما برایتان پیش آمده است که برای انجام کاری به اداره و یا سازمان بزرگی مراجعه کرده باشید و به دلیل عدم آشنایی با بخش های مختلف آن، مستقیما از بخش اطلاعات سازمان مربوطه کمک گرفته باشید.

در واقع بخش های اطلاعات در سازمان ها و ادارات مختلف با هدف راهنمایی مراجعه کنندگان و پاسخ به سوالات آن ها ایجاد شده اند.

اما چرا ما باید از این مثال در مقاله خود استفاده کنیم؟

پاسخ آن بر می گردد به ماهیت اصلی فایل robots.txt. در واقع این فایل نیز مانند بخش اطلاعات سازمان و ادارات، وظیفه هدایت و راهنمایی دارد، اما راهنمایی چه کسانی یا بهتر بگوییم چه چیزی؟

فایل robots.txt وظیفه ی هدایت و راهنمایی ربات های خزنده گوگل در هنگام بررسی صفحات سایت ها را به عهده دارد، اما بهتر است جزئیات بیشتر درباره ی این فایل و کاربرد آن در سئو سایت را در ادامه ی همین مقاله با هم بررسی کنیم. 

پس همراه ما باشید!

فایل Robots.txt چیست؟

Robots.txt در واقع یک فایل متنی بوده که اجازه دسترسی به صفحات سایت را به ربات های خزنده گوگل می دهد.

البته خاطرتان باشد که شما با نوشتن دستوراتی در این فایل می توانید به ربات ها بفهمانید که کدام قسمت های سایت را بررسی کنند و کدام قسمت را نمی توانند بررسی کنند. 


فایل  Robots.txt چیست؟

از آنجاییکه در سئو مهم ترین ربات ها مربوط به موتور گوگل هستند، پس منظور ما از واژه ربات ها همان خزنده های گوگل است.

اهمیت فایل Robots.txt برای سایت

بد نیست برخی از دلایل اهمیت این فایل را بدانیم تا ارزش وجود این فایل در ذهن ما دو چندان شود:


 🔹 مدیریت ترافیک سایت

در قسمت قبلی به این نکته اشاره شد که ربات ها به صورت پی در پی در حال خزش صفحات سایت ها بوده و آن ها را بررسی می کنند. پس لزوم توجه به ترافیک سایت و عدم پردازش پهنا باند توسط ربات های گوگل، راهی برای کنترل ترافیک سایت و بهبود کیفیت آن در نتایج و افزایش کلیک گوگل است.

خواندن این مقاله را از دست ندهید: راه های بهبود سئو سایت

 🔹 مدیریت Crawl Budget

یکی از موارد با اهمیت در زمینه بهینه بودن یک سایت، Crawl Budget است. این مورد بسیار شبیه به قسمت قبل بوده، چرا که ربات های موتور جستجو روزانه تعداد زیادی صفحه را بررسی می کنند و شما می توانید با کمک فایل ربات مقدار کراول باجت سایت خود را بهینه کنید. در واقع می توان صفحاتی که نیاز به خزیدن ندارند را در فایل robots.txt مشخص کنید و از این طریق مقدار بودجه ی خزش سایت خود را بهینه کنید.


کراول باجت (Crawl Budget) در واقع تعداد دفعاتی است که گوگل در روز صفحات سایت شما را خزش می کند و مقدار آن با توجه به بزرگی سایت، سلامت سایت و لینک لینک های ورودی به سایت متغیر است. مقدار کراول باجت متغیر است و ممکن است گوگل در یک روز 20 صفحه و روز دیگر 100 صفحه از سایت را خزش کند.

 🔹 جلوگیری از نمایش صفحات در نتایج گوگل

 شاید برخی از صاحبان سایت و وبمستران علاقه نداشته باشند برخی از صفحات و فایل های موجود در سایت خود را نمایش دهند. به همین دلیل با اعمال دستوراتی در فایل ربات سایت می توان از این امر جلوگیری کرد.

کاربرد های فایل Robots.txt

همواره دلایلی وجود دارد تا یک متخصص سئو با استفاده از فایل Robots.txt و اعمال دستوراتی از خزش بی رویه ربات های گوگل به سایت خود جلوگیری می کنند. بد نیست تعدادی از این موارد را با هم بررسی کنیم:


🔹 عدم اهمیت یکسان تمامی صفحات سایت

قطعا سایت هایی که دارای صفحات پرتعدادی هستند به این امر واقف هستند که نمی توان تمامی صفحات را مشابه دانست، بنابراین وبمستران همواره در تلاش هستند تا صفحاتی از سایت را به گوگل نشان دهند که از دید خود دارای اهمیت بالایی هستند.


🔹 عدم ایندکس شدن پنل وب سایت در موتور جستجو

درج تمامی اطلاعات و صفحات یک سایت قطعا اتفاق خوب و ایده آلی برای وبمستران نیست. به همین دلیل با اعمال دستوراتی در فایل ربات می توان این مورد را اصلاح کرد.


عدم ایندکس شدن برخی صفحات با کمک فایل ربات

🔹 عدم ایندکس صفحات با محتوا نا مناسب

باز هم به اصلی ترین مورد در صفحات می رسیم. محتوا در صفحات حرف اول را می زند. طبیعتا تولید محتوا عالی برای همه صفحات یک سایت کاری سخت و زمانبر است. به همین جهت با دستورات داده شده به فایل ربات می توان از بررسی صفحات با محتوا بی کیفیت توسط گوگل جلوگیری کرد.


🔹 محدود کردن درخواست بیش از حد صفحات

پهنای باند و سرعت سایت دو المان مهم در بحث بهینه سازی و قرار گرفتن در صفحه اول گوگل است. اگر سایتی با تعداد صفحات زیاد داشته باشید که ربات ها همواره در حال بررسی این صفحات هستند، طبیعتا با مشکل سرعت و ترافیک بالا پهنا باند مواجه خواهید شد، لذا وجود این فایل برای کنترل این درخواست ها ضروری است.

محدودیت های Robots.txt چیست؟

شاید جالب باشد که بدانید با اینکه فایل robots.txt دارای کارایی بسیاری است، اما با محدودیت های جزئی مواجه است که به صورت مختصر به آن ها اشاره می کنیم:


🚩 دستورات برای همه ربات ها یکسان نیست.


🚩 امکان درک متفاوت دستورات توسط ربات ها وجود دارد.


🚩 امکان ایندکس شدن صفحه با وجود جلوگیری از آن در فایل robots.txt وجود دارد.

اجزا تشکیل دهنده Robots.txt چیست؟

دستور User-agent: برای مشخص کردن رباتی که دستورات برای آن نوشته شده است. 

دستور Disallow: بخش‌هایی که ربات اجازه درخواست یا بررسی آن را ندارد.

دستور Allow: بخش‌هایی که ربات ها مجاز به درخواست و بررسی هستند.

دستور Sitemap: برای نشان دادن آدرس فایل نقشه سایت به ربات‌ها استفاده می شود.

مشخص کردن ربات با User-agent 

از این دستور برای هدف گیری یک ربات خاص استفاده می‌شود و از آن می‌توان به دو شکل در فایلrobots.txt  استفاده کرد.

اگر قصد دارید به تمام ربات‌های خزنده یک دستور مشابه بدهید، کافی است بعد از عبارت User-agent از علامت ستاره (*) استفاده کنید. علامت ستاره به معنای «همه چیز» است. مانند مثال زیر:

*:User-agent

دستور بالا به این معنی است که دستورات بعدی، برای همه ربات‌های جستجوگر مشابه است.

اما اگر می‌خواهید تنها به یک ربات خاص مانند ربات گوگل (GoogleBot) دستور خاصی را بدهید، دستور شما باید به شکل زیر نوشته می شود:

User-agent: Googlebot

کد بالا به این معنی است که اجرای دستورات فایل، تنها برای ربات گوگل الزامی است.

مشخص کردن صفحات و بخش‌های غیرمجاز با Disallow 

همانطور که از اسم آن مشخص است با این دستور شما به ربات ها می فهمانید که به کدام قسمت ها در سایت مراجعه و آنها را بررسی نکنند. به مثال زیر توجه کنید:

فرض کنیم که تمام این تصاویر را به درون فولدری به نام pictures منتقل کرده‌اید. برای آنکه به گوگل بگویید که این تصاویر را ایندکس نکند، باید دستوری مانند زیر را بنویسید:

 *:User-agent
Disallow: / pictures

مشخص کردن بخش‌های مجاز برای ربات‌ها با  Allow

این حالت در واقع عکس حالت بالا بوده و بیان می کند که ربات اجازه دارد به کدام قسمت ها در سایت دسترسی داشته باشد و آن ها را مورد بررسی قرار دهد. 

فرض کنید در فولدر pictures تصویری وجود دارد با نام anizlogo.png که می خواهیم ربات های خزنده آن را ایندکس کنند. در این حالت دستوری که باید در فایل ربات نوشته شود به صورت زیر خواهد بود:

 *:User-agent
Disallow: /pictures
Allow: /pictures/anizlogo.png

نقشه سایت (sitemap)

گوگل برای سئوکارها چند راه برای دسترسی به نقشه سایت گذاشته است. یکی از این راه‌ ها نوشتن آدرس سایت مپ در فایل Robots.txt است. 

هرچند ما اعتقاد داریم بهترین راه برای معرفی نقشه سایت با استفاده از ابزار سرچ کنسول به گوگل است. 

با استفاده از آدرس زیر می توانید نقشه سایت هر وب سایتی را مشاهده کنید:

https://example.com/sitemap.xml

محل قرار گیری فایل Robots.txt کجاست؟

اگر به دنبال این فایل هستید خیالتان راحت کار چندان پیچیده ای برای پیدا کردن آن ندارید.

فقط کافیست از حالت دستوری زیر استفاده کنید:

https://example.com/robots.txt

محل قرار گیری فایل robots.txt

چگونه فایل ربات robots.txt بسازیم؟

اگر فکر میکنید نوشتن فایل ربات کار پیچیده  و سختی است باید بگوییم که اشتباه فکر کردید، زیرا بسیار ساده و کوتاه می توانید این فایل با ارزش را بنویسید.

فقط کافیست نرم افزاری مانند Notepad که فایل ها را با پسوند txt ذخیره می کند را در سیستم خود داشته باشید. برای ساخت فایل robots.txt فقط یک فایل txt جدید ایجاد کنید. فرمت یا انکودینگ فایل حتماً باید UTF-8 باشد. 

در هنگام نوشتن فایل ربات تنظیمات نوت پد باید روی utf8 باشد

در این فایل طبق دستوراتی که در بالا گفته شد، محدودیت و دسترسی ها را برای ربات ها مشخص کنید. 

حال که با ساختن آن آشنا شدید باید آن را داخل هاست خود بارگذاری کنید.

بارگذاری فایل Robots.txt چگونه است؟

برای اینکار فقط کافیست فایل ها را در Root قرار دهید و اصلا نباید آن ها را در صفحات یا دایرکتوری ها قرار دهیم.


قرار دادن فایل robots.txt در روت هاست

همچنین می توانید با استفاده از دستور زیر فایل ربات خود را تست کنید:

برای این منظور ابتدا وارد سایت Google Search Console شوید.


تست صحت فایل ربات در سرچ کنسول با ابزار robots.txt Tester

روی بخش robots.txt Tester کلیک کنید.

گزینه Test را انتخاب کنید.

اگر فایل به درستی بارگذاری شده باشد گزینه قرمز رنگ تست به رنگ سبز تغییر خواهد کرد.

تاثیر Robots.txt بر سئو سایت

 🔹 جلوگیری از محتوا تکراری

اگر صفحاتی با محتوا یکسان در سایت خود داشته باشید بلافاصله ربات ها تشخیص می دهند و برای شما شناسایی می شود.


 🔹 پنهان سازی قسمت هایی از سایت

بسیاری از متخصصان سئو علاقه ای به افشا شدن قسمتی از سایت خود در نتایج گوگل ندارند، به همین جهت با استفاده از فایل ربات آن را مخفی می کنند. مانند بخش رزومه ی افراد در سایت

خواندن این مقاله را از دست ندهید: آموزش تکنیک های سئو

 🔹 بهینه سازی Crawl Budget

در این خصوص در قسمت قبل توضیحات کاملی ارائه شد.


 🔹 بهبود سرعت سایت

یکی از موارد مهم در سئو سایت بحث سرعت سایت است. فایل ربات با بهینه کردن خزش ربات های گوگل در سایت به سرعت سایت کمک کرده و آن را بهبود می دهد.

جمع بندی

در این مقاله سعی شد تا دید کلی و جامعی را نسبت به مفهوم فایل ربات Robots.txt ارائه دهیم. در قسمت اول به صورت کاملا جامع در خصوص مفهوم فایل ربات پرداختیم و در ادامه سعی کردیم به صورت تخصصی تر این مقوله را موشکافی کرده و موارد مبهم آن را کامل توضیح دهیم.

همچنین در قسمت پایانی مقاله به منظور کاربردی تر کردن بیشتر مقاله سعی کردیم برخی از مواردی که فایل ربات در بهینه کردن سایت و تاثیر بر سئو سایت دارد را برای شما بازگو کنیم. امیدواریم که ماحصل این مقاله توانسته باشد اطلاعات مفیدی را در اختیارتان قرار داده باشد.


امتیاز 4.9
از 5
1747 رای

نظرات

ارسال نظر

    • مردم و لبخندها
      حیوانات و طبیعت
      غذا و نوشیدنی
      فعالیت‌ها
      سفر و مکان
      اشیاء
      نمادها
      پرچم‌ها
عکس خوانده نمی‌شود
ارتباط با آنیز وب

جهت ارتباط با کارشناس فنی یا فروش و ارسال داکیومنت پروژه و دریافت مشاوره رایگان از طریق روش های زیر با ما ارتباط داشته باشید.

ارتباط با ما