PDA

View Full Version : کدوم function ؟؟؟؟؟؟



jitman
جمعه 01 دی 1391, 16:51 عصر
با سلام
کسی میدونه که چه تابعی میشه نوشت که مثلا وقتی اون تابع رو اجرا کردیم وارد سایت barnamenevis.org (به طور مثال) و تمامی پی دی اف های موجود رو لینکشونو برداره و توی یه فایلی ذخیره کنه
لطفا بد برداشت نکنید
منظورم دزدی از سایت ها یا کلا هبرداری نیست
من یه پروژه دارم که باید واسش حداقل 100 تا موضوع انتخاب کنم تا یکی از موضوع ها انتخاب بشه
و این موضوع ها هم باید از سایت sciencedirect.com باشه
میخوام که با این تابع تمام اسامی پی دی اف اون موضوع مشخص رو توی یه فایل ذخیره کنم و به استاد راهنمام نشون بدم به جای اینکه خودم برم یه ساعت بشینم و تک تک کوپی پیست کنم
ممنون میشم کمک کنید
موفق باشید

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:00 عصر
اسم اون تابع خداست :دی
داداش همچین تابعی نیست !
شما باید یک ربات جستجو گر بنویسی

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:00 عصر
شما باید سایت و باز کنی و پردازش محتوا کنی و در انتها لیستی از لینک ها جمع آوری کنی و با دستورات ساده کار با فایل اسامی و در فایل ذخیره کنی

jitman
جمعه 01 دی 1391, 19:04 عصر
پردازش محتوای سایت چه جوری امکان پذیره؟

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:11 عصر
شما با تابع file_get_content میتونی سایت و باز کنی
و خروجی این تابع محتوا خروجی سایت است
شما مقلا محتوا سایت گوگل و میگیرید از این روش و میرزید تو یک متغیر
حالا فک میکنید چی تو این متعییر هست ؟
همون چیزی که شما با کلیک راست تو مرمرگرتون تو سایت گوگل م زدن view source میبینید
خوب اونجا بخواید یک متنی و پیدا کنید چیکارمیکنید؟
دکمه کنترل و ف و میزنید و جستجو انجام میدید

شما با تابع های زیادی میتونید این کار و کنید
strstr
با این تابع بیاید بگرید دنبال رشته .pdf
اگه بود اون لینک و بررسی کنید و ت وفایل بریزید
یا با domdocument تو php میتونید html و پردازش کنید
و خیلی راحت میتونید بگید تمام لینک ها تو وب پیج و بهتون بده ( تگ ها a )
و بعد بررسی کنید پسوند مربوطه و داره و یا نه
;kj

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:20 عصر
<?php

set_time_limit (0);
curl_setopt($ch, CURLOPT_URL,"http://example.com");
curl_setopt($ch, CURLOPT_TIMEOUT, 0);
curl_setopt($ch, CURLOPT_RETURNTRANSFER,1);
$result=curl_exec ($ch);
curl_close ($ch);

preg_match_all( '/<a href="(http:\/\/www.[^0-9].+?)"/', $result, $output, PREG_SET_ORDER); // read all links

foreach($output as $item ){
$n=strlen($item);
$m=$n-3;
$buffer_n=$item;
$buffer_m="";
$buffer_m=$buffer_n[$m].$buffer_n[$m+1].$buffer_n[$m+2];
$ekstension = 'pdf';
if ($buffer_m == $ekstension) {
print_r($item);
echo '<br>';
}
}

?>

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:23 عصر
<?php

set_time_limit(0);
include 'simple_html_dom.php';
$url = 'example';
$html = file_get_html($url) or die ('invalid url');

foreach($html->find('a') as $e) {
$link= $e->href;
if (preg_match('/\.pdf$/i', $link)) {
}
}

print_r($result);

?>

jitman
جمعه 01 دی 1391, 19:35 عصر
ارتباط کد اول با کد دوم به چه صورته؟

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:37 عصر
اولی با کرل curl و دومی به دووم
domdocument
تو گوکل سرچ کن دستت میاد

jitman
جمعه 01 دی 1391, 19:40 عصر
یعنی هر دو کد یک کار رو انجام میدن یا جدا از هم هستند؟
اون simple_html_dom.php رو که include کردی کدوم کده؟

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:44 عصر
شما از کد اول استفاده کن
یا اگه اطلاعات ندارید به آیدی من پیغام بفرستید

$ M 3 H R D A D $
جمعه 01 دی 1391, 19:58 عصر
شما کد اول و اجرا کن و جای اون سایت اسم سایت مورد نظرتو بنویس و خروچی و ببین و دستت می آید
این و تو هاست اجرا کن
جوم مطمونا تو لوکال بهش دسترسی نداری ( برای کار با curl )