4 слова о Google для новичка |
||
12:56 6 июля 2014 — Угниченко Дмитрий |
В поисковой оптимизации используется множество терминов. Каждое из этих слов имеет конкретный смысл, когда дело доходит до работы. Тем не менее, многие из терминов в SEO трактуются не правильно. Давайте взглянем на некоторые из самых непонятных терминов, которые мы употребляем говоря о поиске в Google.
Бывают случаи, когда не правильно употребленные термины могут привести к ошибкам в долгосрочной перспективе.
Большинство людей считает, что файл robots.txt использутся для блокировки контента от поисковой системы.
Это не совсем так, файл robots.txt работает несколько по другому принципу.
Ошибочно предполагать, что наличие страницы в списке запрещенных страниц к индексации служит гарантией того, что эта страница не будет проиндексирована.
Robots.txt не помешает проиндексировать URL, поэтому запись в robots.txt это всего лишь ваша рекомендация для поисковой системы.
Более подробно https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt
Штрафом называют только то, что применено вручную. Google не называет Пингвин и Панду штрафами, они предпочитают говорить об этом как об алгоритмах.
Многие люди под проблемой дублирования содержания понимают копирование контента. Это не так. На самом деле, речь не о копировании абзацев, слов, картинок.
Все здесь даже очень интересно. На самом деле, Google имеет достаточно серьезные технологии для выявление дубликатов.
Google имеет патент на свою разработку по выявлению нечетких дубликатов, который проходит под номером US 8015162 B2
http://www.google.co.in/patents/US8015162
Улучшенный способ US 7366718 B1. Обнаружение дубликатов и нечетких дубликатов файлов.
http://www.google.co.in/patents/US7366718
Исходя из этого становится ясно, что если вы имеете сайт с определенной проблемой и переносите сайт на другой домен, то, например, спамные ссылки перейдут и к вашему новому домену.
Речь идет о ссылках на ваш сайт. Не больше. У показателя есть своя формула и есть софт умеющий предсказать это пресловутый и малоценный показатель сайта. PageRank это зеркало количества и качества внешних и внутренних ссылок.
От Google:
Термины к этой статье выбраны как самые распространенные.
Больше о продвижении и тенденциях из мира IT в блогах на сайте социальной сети MegaIndex.org
Бывают случаи, когда не правильно употребленные термины могут привести к ошибкам в долгосрочной перспективе.
1. Robots.txt
Неправильная интерпретация
Большинство людей считает, что файл robots.txt использутся для блокировки контента от поисковой системы.
Это не совсем так, файл robots.txt работает несколько по другому принципу.
A robots.txt is used to stop a page or part of a site from being crawled and indexed, but not the URL(s) itself. So site owners wind up with this listing in Google's search resultsИз справки Google
Ошибочно предполагать, что наличие страницы в списке запрещенных страниц к индексации служит гарантией того, что эта страница не будет проиндексирована.
Robots.txt не помешает проиндексировать URL, поэтому запись в robots.txt это всего лишь ваша рекомендация для поисковой системы.
Более подробно https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt
2. Пингвин, Панда, штрафы
Многие люди считают, что Google использует штрафные санкции, которые называются Пингвин и Панда. Это понятно, ведь они вызывают серьезное падение трафика.Штрафом называют только то, что применено вручную. Google не называет Пингвин и Панду штрафами, они предпочитают говорить об этом как об алгоритмах.
3. Фильтр дубликатов
Многие люди под проблемой дублирования содержания понимают копирование контента. Это не так. На самом деле, речь не о копировании абзацев, слов, картинок.
Все здесь даже очень интересно. На самом деле, Google имеет достаточно серьезные технологии для выявление дубликатов.
Google имеет патент на свою разработку по выявлению нечетких дубликатов, который проходит под номером US 8015162 B2
http://www.google.co.in/patents/US8015162
Улучшенный способ US 7366718 B1. Обнаружение дубликатов и нечетких дубликатов файлов.
http://www.google.co.in/patents/US7366718
Исходя из этого становится ясно, что если вы имеете сайт с определенной проблемой и переносите сайт на другой домен, то, например, спамные ссылки перейдут и к вашему новому домену.
4. PageRank
О показателях. Заблуждение считать, что цифры PageRank указывают насколько хорошо ваш сайт оцениваться с точки зрения Google.Речь идет о ссылках на ваш сайт. Не больше. У показателя есть своя формула и есть софт умеющий предсказать это пресловутый и малоценный показатель сайта. PageRank это зеркало количества и качества внешних и внутренних ссылок.
От Google:
PR(A) = (1-d) + d (PR(T1)/C(T1) +… + PR(Tn)/C(Tn))Изучение поисковой оптимизации подобно изучению нового языка. Лучше всего изучать практикой.
where PR(A) is the PageRank of page A, PR(Ti) is the PageRank of pages Ti which link to page A, C(Ti) is the number of outbound links on page Ti and d is a damping factor which can be set between 0 and 1
So, first of all, we see that PageRank does not rank web sites as a whole, but is determined for each page individually.
Термины к этой статье выбраны как самые распространенные.
Больше о продвижении и тенденциях из мира IT в блогах на сайте социальной сети MegaIndex.org
Понравился пост?Да НетПонравилось 2, не понравилось 0 |
Расскажите о нас... |
0 комментариев
+ Добавить комментарий