Зaщитa oт гpaбa?

Печать RSS
1397


Ктулху
0
102, это шлак. проверка по рефереру, обходится даже нубом
C

Пришелец
0
Ну я думаю мог бы вытащить данные почти откуда угодно, хотя я не спец по ним а просто разработчик ПО. Но если делать защиту с кучей проверок то она нанесет большевреда потому что из за проверок нагрузка будет больше чем от граббера. Я не прав? Просто не вижу смысла делать грабы вап сайтов когда есть веб и там больше что контента, что музыки, что видео
C

Пришелец
0
Хотя придумал более менее адекватный метод. но затрат сервера все равно много.

Добавлено через 05:27 сек.
обрабатывать все запросы к папке /uploads/ фильтром и отдавать файлы только браузерам с рефферером и не отдавать больше 3-5 файлов одному IP одновременно. Соорудить белый список ипов или черный список по желанию.
Как обойдете такое?

Пришелец
0
В curl несколько потоков создать можно, с другой стороны зачем грабить и без того тормозящий сайт? )
А

Оранжевые штаны
0
ну тогда уж, слать лесом все не мобильные ip.
C

Пришелец
0
107. Муз-ТВ, хотябы даже просто отдавать файлы только тем у кого реферер с твоего сайта

Добавлено через 01:31 сек.
106. Admin7, ну если проверять реферер то это не поможет

Добавлено через 08:35 сек.
Можно для каждого юзера или IP генерировать уникальную ссылку

Ктулху
0
108, сейчас парсеры в моде. Как сгенерируешь так и сграбят. не поможет.
Скриптом можно сэмулировать любое поведение юзера, вплоть до обработки JS. Это сводит на "нет" все усилия продиводействия грабберам
K

Транклюкаторщик
0
нормальная капча на скачивании файла спасет от парсинга, и то хорошо )

Землянин
0
110, она не спасет, как и закрытие зц от гостей!
Брать списки айпи хостингов и с таких сайтов как proxylife.org и блок им...

Пришелец
0
108. ComatoZZZ, реф подменить легко, можно запомнить текущий url и вписать его в след странице, не так ли? )
Скачивание файла также через тот же curl организовать можно, с последующим сохранением (если ресурсы позволяют), дабы не обращаться к нему дважды.
грабо_парс-мое излюбленное хобби так сказать )
Капча- дело первого обращения к файлу, второго уже может не потребоваться.
Реф- выше объяснил smile
Переадресации- тож 1 обращение
Лимит переходов/скачиваний - банальный rand() UA and PROXY, ну или новый поток (его лучше для скач файла)
POST,GET,HTTPS,FTP,COOKIES,JS-из любых практически препятствий можно выехать.
как то так это все выресовывается в моем взгляде )
Изменил: Admin7 (08.11.2010 / 15:52)
Стикеры / Теги / Правила / Топ тем / Топ постов / Поиск