نمایش نتایج 1 تا 7 از 7

نام تاپیک: برنامه نویسی برای تشخیص Loader

  1. #1

    برنامه نویسی برای تشخیص Loader

    با سلام

    عزیزان من برنامه ای رو می خواستم که بتونه تشخیص بده کی و از کجا ( port ya page ya site ya ... ) هاست منو لود کرده

    من برنامه تشخیص IP رو نمی خوام و اشتباه نشه.

    به عنوان مثال می خوام کرالر گوگل که صفحات من رو لود می کنه بفهمم از کدوم پورت و از کاربر معمولی تشخیصش بدم.

    برنامه سختی نیست فقط من زیاد تجربه کار با function رو ندارم .

    ممنون

    در ضمن OnLY PHP

  2. #2

    نقل قول: برنامه نویسی برای تشخیص Loader

    Crawler گوگل و یاهو و اینها رو که با استفاده از HTTP_USER_AGENT میشه تشخیص داد.
    ولی ممکنه سایتی و کسی یک Crawler بی ادب داشته باشه که خودش رو معرفی نمیکنه!!

  3. #3
    کاربر دائمی آواتار farhadfery
    تاریخ عضویت
    اردیبهشت 1387
    محل زندگی
    اصفهان
    پست
    723

    نقل قول: برنامه نویسی برای تشخیص Loader

    لی ممکنه سایتی و کسی یک Crawler بی ادب داشته باشه که خودش رو معرفی نمیکنه!!
    من اینجرا نفهمیدم. می شه توضیح بدید؟ یعنی یه Crawler که جلوی مشخص شدن مشخصات که با HTTP_USER_AGENT به دشت می یاد را بگیره؟

  4. #4

    نقل قول: برنامه نویسی برای تشخیص Loader

    نه دوست عزیز، یعنی با دستکاری کردن Header درخواست، یک Agent جعلی درست کنه و خودش رو چیزی غیر از اونی که هست معرفی کنه.

  5. #5

    نقل قول: برنامه نویسی برای تشخیص Loader

    از دوستای عزیز برای راهنمای شون بسیار بسیار متشکریم

    امیدورم سال خوبی داشتع باشید

    عزیز با اینا کمی آشنایی دارم


    فقط یک نکته:
    وقتی کرالر گوگل روی سایت من هست داخل متغیر ppp چه چیزی ذخیره می شود؟؟؟

    $ppp=strpos($_SERVER["HTTP_USER_AGENT"],"Googlebot");

  6. #6

    نقل قول: برنامه نویسی برای تشخیص Loader

    راستی یه سوال دیگه یادم رفت.


    اگه از پورت 80 وارد میشه پس چرا سایت کانتر نمی اندازه؟
    منظورم وبگذر یا histats یا ....؟

    چرا نشون نمی دن که از جای یا سروری سایت لود شده؟

  7. #7

    نقل قول: برنامه نویسی برای تشخیص Loader

    توی Log سرور رو هم چک کردین؟ شاید با Ping و روشهای دیگری کار میکنه؟ مثلاً با یک AGENT ساختگی وارد میشه و میخونه یا اینکه از SiteMap فهرست فایلها رو استخراج میکنه و وجود یا عدم وجودشون رو بررسی میکنه. نهایتاً برای درآوردن یکسری اطلاعات از cURL و خوندن هدرهای فایلها استفاده میکنه. بالأخره راه زیاده واسه این کار. اونها هم به این راحتی خودشون رو لو نمیدن که. اگه اینطوری بود خیلی راحت تر از این حرفها میشد یک Crawler مشابه اونها بسازیم.

برچسب های این تاپیک

قوانین ایجاد تاپیک در تالار

  • شما نمی توانید تاپیک جدید ایجاد کنید
  • شما نمی توانید به تاپیک ها پاسخ دهید
  • شما نمی توانید ضمیمه ارسال کنید
  • شما نمی توانید پاسخ هایتان را ویرایش کنید
  •