PDA

View Full Version : فایل robots.txt



hamidrezawd
سه شنبه 30 بهمن 1397, 12:43 عصر
سلام استاد خسته نباشین
یه سوالی برام پیش اومده :
ما تو فایل robots.txt به ربات ها میگیم که به چه فایل هایی دسترسی داشته باشن و به چه فایل ها یا صفحاتی دسترسی نداشته باشن .
حالا ما باید بیایم برای دونه دونه از صفحاتمون allow بزنیم و بگیم که به این صفحات دسترسی داشته باشه .
این کار یکم سخت نیست .
میشه به ربات ها بگیم که فقط به فلان فایل و صفحه دسترسی نداشته باشن و بعدش به همه صفحات دسترسی داشته باشن ؟


یا اصلا من میخوام ربات به همه ی فایل های ما و صفحات ما دسترسی داشته باشه فقط دستور allow * رو بزنم ؟


الان برای یه سایتی این فایل رو نوشتن :


User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php


به ربات ها گفتن که به wp-admin دسترسی نداشته باشن و به /wp-admin/admin-ajax.php دسترسی داشته باشن . پس تکلیف بقیه ی صفحاتتون و محتویات سایت چی میشه ؟
واقعیتش من یکم گیج شدم و نمیدونم که چیکار کنم .


ما تو سایت مپ هم به گوگل تمام لینک ها و صفحاتمون رو معرفی میکنیم . پس robots.txt به چه درد میخوره ؟


ممنون

ali_sed
سه شنبه 30 بهمن 1397, 16:02 عصر
سلام

فایل ربات مربوط به وردپرس می باشد.
بصورت پیش فرض ربات همه صفحات سایت شما را پیمایش می کند اما معمولا تمایلی نداریم که بخش های مدیریتی سایت در جستجوی گوگل نمایش یابد (یا اصلا ربات آنها را بررسی کند بخصوص که دسترسی به تمامی آنها بسته است و تنها موجب مصرف منابع سرور می شود) بنابراین از ربات میخواهیم که پوشه مدیریت را پیمایش نکند اما با توجه به اینکه در وردپرس تمامی ریکوئست های آجاکس (حتی در فرانت اند) به فایلی در پوشه مدیریت ارسال می شود آن فایل مستثنی شده است.

در فایل robot.txt از خزنده میخواهید که چه فایلهایی را پیمایش نکند.(یا پیمایش کند) اما در فایل sitemap.xml شما آدرس مستقیم تمامی صفحات سایت را در اختیار موتور جستجو قرار می دهید که منجر به ایندکس شدن سریعتر صفحات سایت می شود. توجه داشته باشید در صورتی که شما نقشه سایت نداشته باشید خزنده بعد از اینکه صفحه اول را پیمایش کرد باید لینک های داخلی آن را پیمایش کند و این کار را بارها تکرار کند. حال فرض کنید دو محصول جدید در دو دسته موبایل و لپ تاپ به سایت اضافه شده است. خزنده باید در تمامی دسته های محصولات بخزد تا بتواند این دو محصول جدید را بیابد در حالی که با یک بار خواندن نقشه سایت می تواند آن دو محصول جدید را بیابد.

hamidrezawd
سه شنبه 30 بهمن 1397, 19:18 عصر
سلام و تشکر فراوان بابت راهنمایی
به این کد نگاه بکنین


User-agent: *
Disallow: /login/
Allow: *


مثلا من میتونم بگم که به پوشه login دسترسی نداشته باش ولی بعد اون به همه چی دسترسی داشته باش ؟


یا به این کد نگاه بکنین .


User-agent: *
Allow: *


مثلا من میتونم بگم که به همه چی دسترسی داشته باش ؟
ممنون از لطفتون

ali_sed
جمعه 03 اسفند 1397, 00:26 صبح
سلام خواهش می کنم

بله هر دو دست است. اما با توجه به اینکه بصورت پیش فرض کل سایت توسط خزنده پیمایش می شود نیازی به allow * نمی باشد.
allow , disallow بصورت گروهی عمل می کنند تنها با یک خط خالی میتوانید آنها را گروه بندی کنید و اولویت آنها نیز بر اساس طول کاراکتر های URL می باشد نه ترتیب قرار گرفتن آنها.

توضیحات بیشتر را می توانید در اینجا بخوانید.
https://developers.google.com/search/reference/robots_txt?csw=1

charcharkh
جمعه 03 اسفند 1397, 15:49 عصر
نیازی نیست Allow رو مشخص کنید فقط اونایی که بایست Disallow بشن رو مشخص کنید اگر توی اون دارکتوری که بایست Disallow بشه نیاز بود به یک url خاصی دسترسی باشه اینجا بایست از Allow با مسیر مشخص استفاده نمایید.

behzadamin12
سه شنبه 17 آبان 1401, 13:40 عصر
دوستان میتونید به صورت کامل مطالعه کنید آموزش robots.txt (https://jobteam.ir/ProductUser/752-robots)