Szukaj
Kategorie główne
- Aktualności
- Biznes i ekonomia
- Erotyka
- Firmy wg branż
- Gry
- Internet i komputery
- Katalogi stron WWW
- Kultura i sztuka
- Motoryzacja
- Muzyka
- Nauka
- Podróże
- Rozrywka
- Rząd i polityka
- Sport i rekreacja
- Społeczeństwo
- Szkoły
- Według regionów
- Zdrowie
SEO Płatny Katalog Stron internetowych
Home
/ Aktualizacja Google Panda
Panda to algorytm Google który ma na celu eliminowanie śmieciowych witryn z wyników wyszukiwarki dzięki czemu można obniżyć sztucznie zawyżonych wartości dla witryn które były pozycjonowane przez SPAM w internecie. Ogólnie w wyszukiwarce zastosowanych jest kilka algorytmów które sterują całym procesem. Podstawowy algorytm to PageRank który ma za zadanie ocenianie witryn na podstawie szeregu wag z których są wyciągane oceny częściowe które w sumie dają dokładne wyliczenie wartości witryny względem konkurencji która działa w tym samym obszarze czyli w tym wypadku w identycznych frazach kluczowych.
Ogólna liczba wag nie jest znana, możemy jedynie przypuszczać że jest ich ponad dwieście. Tyle naliczono różnych aspektów witryny dzięki którym można obliczyć wartość strony. Wraz z zwiększającą liczbą stron internetowych oraz specjalistów którzy zakłamują wyniki wyszukiwania powstała konieczność stworzenia kolejnych algorytmów które tym razem muszą przeciwdziałać zaśmiecaniu wyników wyszukiwania.
Pierwszym takim algorytmem sprzątającym był pingwin. Miał on na celu wyciąć z wyników wyszukiwania strony które są ewidentnym spamem. Czyli witrynami z zdublowaną treścią lub linkowanymi z podejrzanych źródeł. Niestety pingwin okazał się mało wystarczalny, i niestety nie osiągnięto za jego pomocą oczekiwanych skutków. Oczywiście było już lepiej ale to nadal nie był taki efekt jak oczekiwano.
Kolejnym algorytmem była Panda. Ten algorytm jest znacznie bardziej udany. Po wprowadzeniu nowego algorytmu wyniki w wyszukiwarkach naprawdę zostały pozbawione spamu. Pierwsze zmiany mogliśmy już oglądać w wyszukiwarce Google już w 2011 roku. Następnie przez cały 2011 i 2012 roku wprowadzano masę kolejnych aktualizacji Pandy. Spowodowało to porządne oczyszczenie wyników wyszukiwarki. Metody wycinania słabych stron oraz sztucznie tworzonych okazały się tak skuteczne że w 2013 i 2014 roku wprowadzono aż tylko pięć zmian algorytmu Panda. W roku 2015 algorytm był tylko jeden raz aktualizowany i zapowiada się ze do 2016 roku nie będzie kolejnych poprawek w jego działaniu.
Pozostało czekać i oglądać zmiany w pierwszych wynikach rezultatów osiągniętych przez nową aktualizację Panda 4,2. Osoby które sądzą ze czeka ich jednorazowy spadek pozycji są w ogromnym błędzie. Inżynierowie z Google w wersji 4,2 Pandy wprowadzili długo falowe zmiany. Algorytm będzie w pierwszej chwili zbierał dane i je analizowała następnie w czasie 10 miesięcy będzie reagował na uzyskane wyniki. Strony które zostaną oznaczone jako potencjalnie sztuczne twory w celu uzyskiwania lepszych pozycji zostaną wycięte z wyników wyszukiwania a bonusy do wartości witryn przez nie pozycjonowanych będą obniżane co przełoży się na rzeczywiste pozycje w wyszukiwarce.
Aktualizacja Google Panda
Panda to algorytm Google który ma na celu eliminowanie śmieciowych witryn z wyników wyszukiwarki dzięki czemu można obniżyć sztucznie zawyżonych wartości dla witryn które były pozycjonowane przez SPAM w internecie. Ogólnie w wyszukiwarce zastosowanych jest kilka algorytmów które sterują całym procesem. Podstawowy algorytm to PageRank który ma za zadanie ocenianie witryn na podstawie szeregu wag z których są wyciągane oceny częściowe które w sumie dają dokładne wyliczenie wartości witryny względem konkurencji która działa w tym samym obszarze czyli w tym wypadku w identycznych frazach kluczowych.
Ogólna liczba wag nie jest znana, możemy jedynie przypuszczać że jest ich ponad dwieście. Tyle naliczono różnych aspektów witryny dzięki którym można obliczyć wartość strony. Wraz z zwiększającą liczbą stron internetowych oraz specjalistów którzy zakłamują wyniki wyszukiwania powstała konieczność stworzenia kolejnych algorytmów które tym razem muszą przeciwdziałać zaśmiecaniu wyników wyszukiwania.
Pierwszym takim algorytmem sprzątającym był pingwin. Miał on na celu wyciąć z wyników wyszukiwania strony które są ewidentnym spamem. Czyli witrynami z zdublowaną treścią lub linkowanymi z podejrzanych źródeł. Niestety pingwin okazał się mało wystarczalny, i niestety nie osiągnięto za jego pomocą oczekiwanych skutków. Oczywiście było już lepiej ale to nadal nie był taki efekt jak oczekiwano.
Kolejnym algorytmem była Panda. Ten algorytm jest znacznie bardziej udany. Po wprowadzeniu nowego algorytmu wyniki w wyszukiwarkach naprawdę zostały pozbawione spamu. Pierwsze zmiany mogliśmy już oglądać w wyszukiwarce Google już w 2011 roku. Następnie przez cały 2011 i 2012 roku wprowadzano masę kolejnych aktualizacji Pandy. Spowodowało to porządne oczyszczenie wyników wyszukiwarki. Metody wycinania słabych stron oraz sztucznie tworzonych okazały się tak skuteczne że w 2013 i 2014 roku wprowadzono aż tylko pięć zmian algorytmu Panda. W roku 2015 algorytm był tylko jeden raz aktualizowany i zapowiada się ze do 2016 roku nie będzie kolejnych poprawek w jego działaniu.
Pozostało czekać i oglądać zmiany w pierwszych wynikach rezultatów osiągniętych przez nową aktualizację Panda 4,2. Osoby które sądzą ze czeka ich jednorazowy spadek pozycji są w ogromnym błędzie. Inżynierowie z Google w wersji 4,2 Pandy wprowadzili długo falowe zmiany. Algorytm będzie w pierwszej chwili zbierał dane i je analizowała następnie w czasie 10 miesięcy będzie reagował na uzyskane wyniki. Strony które zostaną oznaczone jako potencjalnie sztuczne twory w celu uzyskiwania lepszych pozycji zostaną wycięte z wyników wyszukiwania a bonusy do wartości witryn przez nie pozycjonowanych będą obniżane co przełoży się na rzeczywiste pozycje w wyszukiwarce.