Semalt: Blokuj dostęp do treści witryny za pomocą metatagów i plików Robots.txt

Jason Adler, Menedżer sukcesu klienta Semalt , mówi, że można kontrolować to, co jest udostępniane Bingowi, Yahoo i Googleowi , gdy dbasz o bezpieczeństwo danych i nie udostępniasz ich w Internecie. Dane, które musisz zachować w tajemnicy, obejmują dane kontaktowe, identyfikator PayPal, dane karty kredytowej, nazwy użytkowników i hasła. Powinieneś zablokować indeksowanie tego typu informacji w Google i innych wyszukiwarkach. Jeśli chodzi o blokowanie adresów URL Twojej witryny, możesz powstrzymać Google i inne wyszukiwarki przed indeksowaniem niektórych stron lub artykułów. Oznacza to, że gdy ludzie przejrzą wyniki wyszukiwania, nie zobaczą i nie przejdą do zablokowanych adresów URL. Ponadto nie będą mogli uzyskać dostępu do jego zawartości, a Ty możesz zatrzymać wyświetlanie wielu artykułów w wynikach wyszukiwania Google. Oto, jak zablokować dostęp do treści witryny:

Zablokuj indeksowanie wyszukiwania za pomocą metatagów: Możesz łatwo blokować wyświetlanie stron w wyszukiwarkach, gdy używasz nieindeksowanych metatagów w kodzie HTML witryny. Googlebot indeksuje strony, które nie mają tego metatagu i z tego powodu usuwa określone strony z wyników wyszukiwania. Pozwól nam powiedzieć, że ten metatag działa tylko wtedy, gdy plik robots.txt nie został zmieniony.

Blokuj adresy URL za pomocą plików robots.txt: plik Robots.txt znajduje się w katalogu głównym witryny i wskazuje część witryny, w której nie chcesz indeksować wyszukiwarek i pająków. Wykorzystuje standard wykluczania robotów, który jest protokołem z zestawem poleceń wskazującym, gdzie i w jaki sposób roboty indeksujące będą uzyskiwać dostęp do Twojej witryny. Robots.txt pomaga również zapobiegać wyświetlaniu się obrazów w wynikach wyszukiwania, ale nie uniemożliwia użytkownikom łączenia Twojej witryny z własnymi stronami. Należy pamiętać o ograniczeniach i ograniczeniach plików robots.txt przed ich edycją. Niektóre mechanizmy zapewniają prawidłowe blokowanie adresów URL. Instrukcje pliku robots.txt są dyrektywami, co oznacza, że nie mogą one wymuszać zachowania robotów indeksujących. Wszystkie roboty indeksujące interpretują składnię na swoje własne sposoby, a pliki robots.txt nie mogą uniemożliwiać odwoływania się do linku z innych witryn. Google dobrze postępuje zgodnie z dyrektywami dotyczącymi plików robots.txt, ale wyszukiwarka może nie być w stanie zaindeksować zablokowanej witryny ze względu na swoje zasady.

Zrezygnuj z Google Local i Google Properties: możesz zablokować wyświetlanie swoich treści w różnych usługach Google po ich zindeksowaniu. Obejmuje to Google Local, loty Google, Zakupy Google i hotele Google. Jeśli zdecydujesz się zrezygnować z wyświetlania we wszystkich tych punktach sprzedaży, przeszukana treść nie będzie wyświetlana ani aktualizowana. Każdy artykuł wyświetlany na dowolnej z tych platform zostanie usunięty w ciągu 30 dni po rezygnacji.

Wniosek:

Ważne jest, aby ukryć mniej wartościowe i przydatne treści przed użytkownikami. Jeśli witryna ma podobne tematy w wielu miejscach, może to wywrzeć negatywne wrażenie na wyszukiwarkach i użytkownikach. Dlatego powinieneś ukryć wszystkie te strony i nie pozwolić, aby wyszukiwarki indeksowały je. Pozbądź się treści od strony trzeciej. Za wszelką cenę musisz pozbyć się treści stron trzecich, które nie są cenne dla Twojej witryny. Nie pozwól, aby Google zobaczył, że udostępniasz treści podmiotów zewnętrznych, ponieważ w takim przypadku wyszukiwarka zobaczy mniejszą wartość w Twojej witrynie. Po skopiowaniu treści z dużej liczby witryn Google może cię ukarać i możesz zablokować duplikaty artykułów, aby poprawić swoje pozycje w Google.