Имеется программа для сканирования всех страниц сайта и его структуры (парсер). <br>Сейчас сканирование сайтов выполняется в одном потоке, что очень долго. <br>Необходимо добавить многопоточность. <br> <br>Принцип работы: <br>- указываем URL сайта <br>- программа (краулер) по ссылкам находит все страницы сайта и получает из них всю необходимую информацию <br> <br>Среда разработки: Delphi XE. <br>Интересует ваш опыт и стоимость часа работы.<br><br> Пишите, пообщаемся.