Data: Wtorek, 1 lutego 2011, 13:00

Google walczy ze spamem w formie tzw. scraper sites


Powszechne wśród spamerów jest tworzenie stron zawierających kopie treści z innych witryn. Google postanowiła uporać się z tym problemem i wprowadzić do swoich algorytmów zmiany, które obniżą pozycję stron prezentujących wyłącznie lub głównie nieoryginalne treści.

Specyficznym rodzajem stron ze spamem są tzw. scraper sites - strony kopiujące różne treści z innych stron. Nie zawsze naruszają one prawa autorskie bo mogą cytować fragmenty informacji lub polegać na treściach dostępnych dla wszystkich.

Nie chodzi jednak tylko o prawa twórców. Scraper sites mogą zalewać wyszukiwarki co sprawia, że znalezione materiały są gorsze niż się spodziewaliśmy. Internauci frustrują się trafiając w miejsca przeładowane reklamami a spamerzy zarabiają.

W drugiej połowie stycznia firma Google ogłosiła, że pracuje nad różnymi mechanizmami antyspamowymi i obejmują one również jedną zmianę w wyszukiwarce, która uderzy w strony kopiujące treści oraz te, które zawierają niewiele treści oryginalnych.

W piątek na swoim osobistym blogu Mutt Cutts ujawnił, że wspomniana zmiana w algorytmie została zaakceptowana i uruchomiona już w ubiegłym tygodniu.

- Nieco ponad 2% zapytań zmienia się w jakiś sposób, ale mniej niż pół procenta wyników wyszukiwania zmienia się tak, aby ktoś mógł to naprawdę zauważyć. Czysty efekt będzie taki, że wyszukujący częściej zobaczą strony, które napisały oryginalną treść, niż strony, które ściągnęły lub skopiowały treść - pisze Mutt Cutts.

Wired pytał Google o szczegóły dotyczące nowego rozwiązania. Firma nie podała przykładów stron, na których może się odbić działanie nowego algorytmu. Nie są również znane szczegóły dotyczące sposobu w jaki on działa. Wired dowiedział się, że tylko w ubiegłym roku firma wprowadziła 490 poprawek do algorytmu wyszukiwania. Wiele z nich skupiało się na wsparciu treści oryginalnych, interesujących i na temat.

Marcin Maj
| Drukuj | Zamknij |