با سلام , دوستان
مقدمه:
موتورهای جستجو از الگوریتمهای خاصی برای جستجو بر روی تارهای شبکه اینترنت به منظور جمع
آوری داده های سایت ها استفاده میکنند و با ایندکس کردن و دسته بندی کردن آنها را نگهداری میکنند و در بازه های زمانی خاص آپدیت میشوند.
اما در مورد نحوه جمع آوری اطلاعات :
موتور های جستجو برنامه هایی به اسم Spider یا Crawl دارند که به وسیله آنها داده ها جمع آوری و بر اساس مختصات جغرافیایی , علمی , اجتماعی و... دسته بندی میشوند . این نمونه برنامه ها ساختار پیچیده ای دارند و از لایه های شبکه براحتی عبور میکنند و هر شرکت یا سازمانی قابلیت پیاده سازی آنها را ندارند.
منظور شما از نوشتن موتور جستجو چیست ؟ موتوری مثل گوگل یا سایر جستجوگرهای دیگر یا فقط یک جستجوگر محلی برای سایت شخصی ؟
شما برای سایت شخصی خود میتوانید یک موتور جستجوی سفارشی با استفاده از گوگل بسازید مانند :