سلام علیکم ، شب بخیر
فرقی نمی کنه که صفحات سایت Html باشن ، Aspx یا php سوالم برای همه جور سایته . ایا واقعا میشه همچین کاری کرد ؟
بدست اوردن تمام لینک های یک سایت با #C امکان پذیر است ؟
سلام علیکم ، شب بخیر
فرقی نمی کنه که صفحات سایت Html باشن ، Aspx یا php سوالم برای همه جور سایته . ایا واقعا میشه همچین کاری کرد ؟
بدست اوردن تمام لینک های یک سایت با #C امکان پذیر است ؟
سلام
کار که فکر نکنم نشد باشه
من این ها رو در نت پیدا کردم :
http://www.cambiaresearch.com/articl...request-object
,
http://stackoverflow.com/questions/7...aseurl-of-site
سلام.
باید یک خزنده بنویسید.
1- از Webbrowser برای باز کردن صفحه استفاده کنید.
2- با استفاده از Webbrowser.Document.Links لیست لینک های صفحه رو بگیرید و در صورت لزوم به مرحله 1 برگردید (به طور برگشتی).
به همین سادگی!!
چشم ظاهر گر نبیند عیب نیست چشم دل گر ننگرد باید گریست**********اَلسَّلامُ عَلَى الْحُسَيْنِ وَ عَلى عَلِىِّ بْنِ الْحُسَيْنِ وَ عَلى اَوْلادِ الْحُسَيْنِ وَ عَلى اَصْحابِ الْحُسَيْنِ
سلام دوست عزیز .
بیشتر سایت ها معمولا میشه اطلاعات ازشون استخراج کرد ، مثل لینک و ... همانطور ام که آقای صفا لطف کردن پاسخ دادن با روش ایشون میشه برای سایت های معمولی اینکارو انجام داد .
اما بعضی از سایت های برای اینکه دچار ربات ها نشن ، تمهیداتی انجام میدن که گرفتن اطلاعات از اونها کار آسونی نیست ! مثلا برای نمونه این سایت بورس : http://www.tsetmc.com/Loader.aspx?ParTree=15
برای همین برنامه ای نوشتن که کل سایت ها رو بتونه پوشش بده فکر کنم مقداری سخت باشه !