собственно все обстоит так: писал программу на дельфи (где-то неделю назад) все работало. сейчас тем же самым методом не работает, не пойму почему. Сниффером проверил другую программу с авторизацией вконтакте(от иоффе чекер) там все так-же но почему то работает. щас покажу на примерах вот кусок кода: (не надо гвоорить что причина что вместо post ставлю get с параметрами ,пробовал по-всякому. Результат один. все вроде бы проходит, но как только get'ую любую страницу (например http://vkontakte.ru/id1) выдает редирект на " http://login.vk.com/?rom_host=m.vkontakte.ru&pda=1&to=Z3JvdXA1NzYzNA--" так что трабла не в куках ах да, все это я делал многопоточно, но не думаю что трабла в этом help me people!!!
спасибо за ответ ,учел, но фигня продолжилась) я предполагаю что дело в куках (idcookiemanager), но вот дело в том что он правильно подключен (версия in - последняя, качал с их svn репозитория) и на одноклассниках авторизация работает (там с куками все впорялке) может реально что-то в гадких печеньках десятой инди? ее кто-нибудь юзает?
Ъ-мэн! мы будем юзать регулярки, мы то знаем что они ни хера проц не нагружают как откровенный говнокод, а те кто так думает пусть то и дело правят Copy, Pos, etc.
моя 10.5.8... пойду 10.5.7 искать... я могу конечно выложить основной код моей программы, который бы на весь экран у тебя вылез, и смотрел бы с хохотом, как такие как ты будут в нем разбиратся... я специально выложил намного упрощенный код, дабы показать что авторизуюсь правильно а ошибка есть
это сарказм?) не знаю как у всех,но у меня регулярки проц не особо нагружают.есть у менясвоя упрощенная функция для поиска подстроки,но как-то привык уже к регуляркам.и особой разницы не замечаю.что же это за говнопроц такой,который можно регуляркой задрочить
Надеюсь это сарказм. Иначе я ни хера не понимаю как 2 вызова Pos (ищущие начальную и конечную кавычку) + Copy (выдергивающая подстроку из найденных позиций) могут быть глючнее/медленнее регулярки, которая делает ровно то же самое + синтаксический анализ самого выражения + кучу другого говна для инициализации. ты свой софт с мегарегулярками на каждый чих запускал в 1000-2000 потоков на обычных процах?
там,кстати,иногда с собакой касяки бывают,попробуй ее заменить на %40 ну и попробуй авторизацию через мобильную версию.вот примерно так,только под делфи переделай. PHP: req = (HttpWebRequest)HttpWebRequest.Create("http://login.vk.com/?act=login&to=&from_host=m.vkontakte.ru&pda=1"); req.Method = "POST"; req.AllowAutoRedirect = false; req.ContentType = "application/x-www-form-urlencoded"; sQueryString = "email=" + HttpUtility.UrlEncode(mail) + "&pass=" + HttpUtility.UrlEncode(pass); ByteArr = System.Text.Encoding.GetEncoding(1251).GetBytes(sQueryString); req.ContentLength = ByteArr.Length; req.GetRequestStream().Write(ByteArr, 0, ByteArr.Length); req.GetRequestStream().Close(); res = (HttpWebResponse)req.GetResponse(); myStreamReader = new StreamReader(res.GetResponseStream(), Encoding.GetEncoding(1251)); res.Close(); page = myStreamReader.ReadToEnd(); s = Parse("'s' value='", page, "'", false);
нет,не было такой необходимости,даже не могу представить где может понадобиться 2к потоков.ну если делать 100500 потоков,там ясен хрен надо оптимизировать.а для работы с котактом врядли ты будешь используешь столько потоков.
Есть идеи куда запустить 2000 потоков для работы и с Контактом. Но ты прав, пока что я использую столько для фейсбука А говорить про говнопроц исходя из 10 потоков смешно, тут даже P-II отработает (почти)любой говнокод без проблем...
нет. понимай буквально. 1. Где ты увидел что я написал что Copy и Pos медленные и глючные? Да, они по определению быстрее, но блеять я не собираюсь поддерживть 50 своих прог в которых парсинг данных может сломаться из-за малейших изменений на сайте. В этом плане регэкспы универсальнее при умении грамотно их составлять. 2. Регулярки намного увеличивает скорость разработки, это для меня как прикладника главное. 3. Их чрезмерная медленность это миф. Пробовал профилировать? А пробовал выполнять рекомендации авторов? Насчет 1000-2000 потоков - в таких случаях лучше отказаться от многопоточности а заюзать асинхронные запросы. Это намного даст больше по производительности, чем отказ от регулярок. И таки да, в 1500 потоков(вернее одновременных коннектов по асинхронной модели) мой софт работал кошерно. И вообще, спалю тему - проц больше всего напрягает отрисовка ГУИ. Сделаешь с умом обновление ГУИ - выиграешь намного больше. PS Я не пишу между строк, между букв, и не использую невидимый шрифт.
разобрался в чем дело... последняя весия indy глючная. нашел какую-то старую на компе, ее поставил все *ОК* тему клоуз
Как обычно начали с одного и закончили другим. ТС, вместо того чтобы снифером проверять другую программу, лучше проверь ВК через браузер вручную. Авторизация уже давно изменилась. Старые алгоритмы авторизации продолжают работать, но не значит что нужно их использовать. kosmo987, 2к потоков и даже больше при работе с ВК нужны. Все зависит от канала сервера и масштабов твоей работы. GhostOnline, по таймеру обновлять ГУИ - это правильно?
да дело оказалось в глючности indy - она кукисы контакта не сохраняла (скорее всего потому что кукисы ставяться на домен ".vkontakte.ru" а "vkontakte.ru" другим доменом считается... старая версия нормально поехала
В твоём сообщении, где ты противопоставил белые и пушистые регулярки и говнокод, который их не использует и оттого глючит и требует постоянной замены. Про парсинг без регулярок можно так же сказать. Я написал модуль с удобными мне функциями (на базе Copy, Pos и т.п.), не использую регулярки и быстро создаю код. Видать я что-то делаю не так. Пруфлинки чтобы не выглядело пустыми словами. Хотя по последнему пункту я Synapse на ICS всё равно менять не стану )) Ты прав, ежесекундное обновление одного лейла, куда выводятся Х переменных (которые изменяются в потоках с помощью XXXInterlocked-функций) - это неимоверная нагрузка для гуя. Более сложный интерфейс на таких количествах потоков делать глупо, согласен. Загрузка зависит от вычислений, проводимых в потоке. Если делать 1к коннектов к тормозному сайту, который выводит инфу секунд 30 - это одно, если к фейсбуку, который отвечает за пару секунд даже с проксями - это другое. PS. Я не против регулярок, есть ситуации когда без них почти не обойтись (например, выдирание ссылок, мыл, телефонов из текста). Но юзать их на каждой чих и гордиться какой ты создаешь крутой код - глупость, которую могут позволить себе лишь php-шники)) или писатели непроизводительного софта для современных компов.
Клевета: Это значит что если писать говнокод то ни Copy ни Pos уже не спасут. Как тут можно другое вычитать умудриться? Те кто думают что регулярки такие медленные пусть и юзают Copy, Pos (омг, я уже повторяюсь, посколько уже не знаю других слов объяснить такую простую мысль). Никаких "Copy , Pos для говнокодеров" и "Copy, Pos медленные и глючные" тут и в помине нет. вотзефак? Кстати "код глючит" и "код устаревает" это совсем разные вещи. Да. Ты изобретаешь велосипед и отказываешься из-за мифов от стандартной технологии применяемой повсеместно. Как ты себе представляешь пруфлинк на тесты? Самому профилировать/тестировать никак, обязательно нужны ссылки на исследования британских ученых? А мне вот и личного опыта хватает. Ну, используй дальше синапс и выигрывай время на распараллеливании)) M_script уж лучше так, чем частый Syncronize, а это попа. Да и настраиваемость - изменил интервал и все.