Автоматический поиск воришек контента
vladvovk — 19.01.2010 Любому онлайновому проекту, которое реально генерит контент, как мои подопечные издания, а не занимается его тривиальным пиздингом, как большинство других проектов, необходимо регулярно отслеживать кто собственно у него пиздит этот самый контент, нарушая закон, засирая поисковую выдачу и раскручивая свой сраный проект, практически не вкладывая в него ни копейки. Этим отслеживанием в наших изданиях занимаются специальные люди, которые всеми мыслимыми и немыслимыми трудозатратными способами умудряются найти ту гниду, которая не соблюдает авторские права, и объяснить ей под какую статью подобные действия попадают и чем они грозят владельцу ресурса. Как правило, люди понимают, что лучше не рисковать и начинают размещать наш контент по нашим же правилам. С остальными разговаривают совсем другие люди и уже не так любезно.Но вот что интересно, уже на протяжении нескольких лет я не могу понять, почему до сих пор поисковые системы, те же инновационные Яндекс и Google, у которых есть индекс всего и вся, что хоть немного востребовано в Интернете, не сделают услугу, пусть и платную, которая позволит непрерывно в автоматическом режиме отлавливать дубликаты и генерить отчеты с контактными данными? Лишние затраты поисковикам на это дело не понадобятся, интерфейс сервиса простейший: оплатил денежку, зашел в личный кабинет, указал свой сайт, робот поднял его контент, прошерстил базу индексов, нашел материалы с высокой степенью схожести, причем не обязательно это сразу выдавать, можно несколько дней базу лопатить, дабы ее, родимую, сильно не нагружать, выдать отчет с линками на материалы сайта источника и сайта паразита, да с контактными данными на тот же домен, и все. Задача простейшая, а до сих пор нереализованная! Интересно, почему?