Есть куча сайтов типа:ссылка на сайт. Где они берут данные? Или может подскажите как с этих сайтов эти данные взять.
Эээ... разве это так делается? По-моему эти данные должны где-то быть, чтобы их все подобные сайты брали... Разве не так? Они же не в ручную пишут.
А вручную дак никак? И как ты это будешь делать автоматом если тебя не все подряд интересует? Вручную делай, Кулибин епрст.
*D1VER, у нормального прова отключён вызов filegetcontents с удалённой урлы... Так что на 99% это гиблое дело... vovan x100, если у тебя нормальный хостер, есть PHP с сокетами, то алгоритм прост: 1) Посылаешь GET запрос через сокеты и получаешь содержимое страницы; 2) С помощью регулярных выражений (или иными функциями) ищёшь/вырезаешь интересующие тебя врагменты; 3) Найденные фрагменты выводишь/сохраняешь/обрабатываешь; Для примера привожу функцию на PHP для получения страницы: Дальше содержимое из $pageContent парсишь с нужными тебе критериями для поиска необходимой информации.
У себя на апачах, это легко можно сотворить... Странно, проверил - всё работает... Вот код + пример вызова: А Internal Server Error может быть вызван отсутствием поддержки сокет на стороне провайдера... В любом случае, откатай сначала локально скрипт и убедись, что он работает... Проверь, правильно ли сделал вызов...
Ты PHP знаешь? Попробуй мою функцию. PHP: <? function parse($site,$ot,$do) { $fp = file_get_contents($site); preg_match_all('#'.$ot.'(.*?)'.$do.'#is', $fp, $parse, PREG_SET_ORDER); foreach($parse as $out) { echo $out[1]; } } parse('сайт.ру','<ОТ>','</ДО>'); // 'сайт','от какого тега','до кокого тега' ?> P.S. Не проверял.