Hegemon ze Stanów Zjednoczonych właśnie zaktualizował algorytm odpowiadający za pozycje stron w wyszukiwarce. Panda 4.0 – bo tak się nazywa – jest odpowiedzią firmy na wyświetlanie się coraz większej ilości treści wątpliwej jakości.
Jak zauważają specjaliści od SEO, a więc mechanizmów odpowiadających za optymalizację dla stron, Panda 4.0, którą wprowadził w minionym tygodniu Google w naszym kraju nie spowodowała jeszcze znaczących przetasowań w wynikach wyszukiwania. Wiadomo jednak, że programiści firmy przygotowując algorytm podjęli próbę uporania się ze słabej jakości treściami, jakie zwraca wyszukiwarka. Oznacza to, że Panda ma wyeliminować strony, na których treści nic nie wnoszą, są skopiowane, a także witryny, na których znajdują się teksty generowane przez synonimizatory treści. W witrynach firm związanych z biznesem SEO pojawiły się nawet pytania, jakie nowy algorytm może „zadawać” przeszukiwanym stronom. Są skonstruowane w taki sposób, by możliwie najdokładniej i najlepiej przypominały myślenie realnego człowieka. Jeśli odpowiedzi na nie w każdym przypadku są korzystne dla właściciela witryny, to Panda w żaden sposób nie powinna mu zagrozić.
Czy ufasz informacjom z tej witryny?
Czy tę witrynę prowadzą eksperci?
Czy powierzyłbyś tej witrynie dane karty kredytowej?
Czy podstrony tej witryny zawierają oczywiste błędy?
Czy witryna dostarcza unikalnych treści/informacji?
Czy uważasz tę witrynę za pewne źródło, na które można się powoływać?
Czy witryna zawiera pogłębione analizy?
Czy dodałbyś podstrony tej witryny do zakładek?
Czy na witrynie są inwazyjne reklamy?
Czy treści tej witryny mogłyby zostać wydane drukiem?
Jeśli więc Wasze witryny nie leżą w sprzeczności z powyższymi kwestiami, to nie macie się czego obawiać!
Źródło: Technologie.ngo.pl