interlimited

Закон Ципфа в SEO - ВИДЕО

1 0
22:07 11 января 2015 — опубликовал Угниченко Дмитрий

Закон Ципфа

Закон Ципфа — эмпирическая закономерность распределения частоты слов естественного языка: если все слова языка (или просто достаточно длинного текста) упорядочить по убыванию частоты их использования, то частота n-го слова в таком списке окажется приблизительно обратно пропорциональной его порядковому номеру n (так называемому рангу этого слова).

Закон Ципфа (SEO): как определить релевантность документа поисковому запросу по закону Ципфа (ВИДЕО)
Кондрашин Валерий

Делаем трастовый домен для подклейки к своим проектам.

13 3
12:47 14 июня 2013 — опубликовал Кондрашин Валерий
Не так давно тут был пост про успешную подклейку старого домена с бэками для продвижения клиентских сайтов.

Но откуда же нам взять такой домен?
Сейчас расскажу и покажу один кейс.

Способ только для тех, кто собирается оставаться в СЕО ещё не менее 5 лет.

Дзюба Иван

Хорошая статья на вес золота!

109 102
14:29 29 мая 2013 — опубликовал Дзюба Иван
Часто нужно написать текст на сайт, а порой и не один, и приходиться голову ломать о чем же написать, чтобы привлечь пользователя и поисковых роботов. А если это коммерческая тематика, то текст должен не только заинтересовать, но и продать.
interlimited

Уникализация изображений финтом Зидана

154 72
19:25 2 июня 2013 — опубликовал Угниченко Дмитрий
Первый основной принцип Яндекса:
Создавайте сайты с оригинальным контентом или сервисом
Цитата из рекомендаций Google в отношении содержания:
Некоторые веб-мастера предпочитают копировать содержание с более популярных сайтов. При этом они не обращают внимания на релевантность и уникальность
Финт Зидана — это фирменный поворот Зинедина (ссылка на видео в конце статьи). Поворот — это ключевое слово в этой статье. На реальном примере я покажу уникализировать изображение у которого множество копий в Интернете (кликабельно):
уникализация изображений

Уникализация изображений актуальная тема. Если текст люди научились легко изменять/рерайтить, то с изображениями процесс более интересный. Используя в Photoshop я проводил множество экспериментов, но задачу уникализации не помогали решить даже профессиональные actions. Actions — это запрограммированные наборы шагов для обработки изображений, которыми используют фотографы. А уж такие банальные вещи как уменьшение, водяной знак, рамки, изменение яркости и освещения и подавно не решают задачу ни на процент. Я зае... Столько усилий затрачено. Решение стало делом принципа.

Если решать задачу наверняка, то необходимо углубляться в алгоритмы Яндекса и Google, которые они используют для определения нечетких копий. Интересны не придурки не придумки, а интересно было найти алгоритм который работает сейчас. Не люблю, знаете, гадалок и догадки. Люблю эксперименты и официальные источники. Источником информации выступил сам Яндекс:
  1. Вначале, с проиндексированного изображения считывается EXIF. EXIF — это стандарт, который цепляет к изображениям раличные данные, например авторе, модель камеры и так далее. Это как meta теги в SEO. На некоторых фотокамерах EXIF заполняется автоматически.
  2. Обработка самого изображения начинается с перевода изображения в цветовой режим из оттенков серого, так называемый grayscale. Простым языком, изображения переводят черно-белый формат.
  3. Далее изображение обрезается по краям. Это делается для того, чтобы убрать возможность уникализации изображения путем наложения ничего не значащей модификации, например рамки.
  4. "Причесывается" изображение выравниванием яркости и освещения.
  5. И основное — это применение DoG-фильтра. Математически это страшилище выглядит так (кликабельно):

    Если сказать простым языком, то с изображения удаляется все, кроме характерных точек.
  6. И последнее что происходит, это финальная валидация.
Это все что нас интересует. И все это правда. За соломинку DoG-фильтра и ухватимся. Изображение Зидана, что вначале статьи, имеет 430 копий в Интернете, это видно по images.google.com. Отлично. Попробуем сделать это изображение уникальным! Погнали

Сначала очень легко снимаю вопрос по EXIF. Просто создаю новое пустое изображение и копирую в него сохраненное изображение взятое из Интернета, сохраняю. У нового изображения EXIF будет пуст.

Далее необходимо изменить расположение характерных точек. По-моему, минимум сделать это можно двумя способами.

Способ 1: Flip Canvas Horizontal
С помощью одноименного инструмента в Photoshop отражаю холст по горизонтали. Результат (кликабельно):

Плюсы: Расположение характерных точек изменилось. Проверка на images.google.com показала что копий нет. Сработало!
Минусы: надо понимать, что этот способ технически не сложный, а это означает что рано или поздно Яндекс и Google это учтут и, иногда, не одни мы такие умные, ведь если изображение популярное кто-то воспользуется этим же способом и коса найдет на камень. Способ работает, но в перспективе хочется альтернативу.

Способ 2: "Финт Зидана" :)
Я делаю поворот изображение на угол более 5 градусов. Затем обрезаю края, чтобы изображение стало прямоугольным/адекватным. Результат (кликабельно):
уникализация
Плюсы: при повороте еще на 5 градусов мы будем иметь еще одно новое положение характерных точек и соответственно новое изображения. Коса на камень на найдет, коса все еще будет косить. Еще одно преимущество "финта Зидана" в избавлении от палева с текстом, которое наблюдается в первом способе.
Минусы: нет.

Напоследок интересные данные из официальных источников:
  • поисковые системы не хранят изображения на своих серверах, вместо это они записывают сигнатуры
  • в Интернете 10 млрд картинок
  • каждые сутки добавляется 10 миллионов новых картинок
  • объём сигнатур 70 терабайт
  • в Яндексе за сутки на картинки приходится 200 миллионов хитов, из которых 5.5 миллионов уникальных посетители
  • Яндекс-картинки обслуживает 1000 серверов
  • всего в "команде картинок" Яндекса трудятся 30 человек
PS: Прошу не злоупотреблять данным материалом, используйте приведенные здесь решения по необходимости. Рекомендую применять "финт Зидана" для больших фотографий, из них можно вырезать часть и эта часть будет смотреться достаточно самобытной.

PSS: Легендарный финт Зидана!
www.youtube.com/watch?feature=player_detailpage&v=jUSU82W3kac#t=44s

Информационные сайта должны располагать уникальным текстом. Для коммерческих сайтов уникализация текста не обязательна. Рекомендованное чтиво по теме на сайте социальное сети интернет-специалистов MegaIndex.org по ссылка далее — Проверка текстов на уникальность ОНЛАЙН И БЕСПЛАТНО

Анализ текста на основе лидеров поиска органической выдачи онлайн и бесплатно можно проводить используя приложение "Анализ текста" от MegaIndex.
Ссылка для регистрации — MegaIndex. Ссылка на приложение — Анализ текста.
andruhax

Поведенческие

55 14
23:55 14 июня 2013 — опубликовал Грицай Андрей


С момента появления Google Chrome и Яндекс.Браузера стало очевидно, что поисковые системы каким-то образом оценивают действия пользователей на сайтах. Да-да, а думали что браузеры это бизнес? Как бы не так. К браузерам можно добавить бесплатные системы статистики и веб-визоры. Таким образом, замеряя различные поведенческие метрики поисковые системы получают возможность использовать полученные данные для ранжирования результатов. Представители Яндекс и Google неоднократно прямо заявляли, что учет поведенческих факторов имеет прямое отношение к выдаче. Известен скандал, когда Яндекс напрямую высказал свое отношение к "поведенческой эмуляции":
webmaster.ya.ru/replies.xml?item_no=10399
Важно знать, что поведенческие факторы хоть и работают в связке с основным алгоритмом ранжирования (у Яндекс это Матрикснет), но стоят особняком. Из передач Наиля Байкова можно услышать о примерах, в которых именно за счет поведенческих факторов низкочастотка выходила в ТОП-1. Далее представлена практическая и актуальная информация

Шаг 1 — Какие поведенческие факторы известны:

  • Посещаемость ресурса (учитывается тематика)
  • Кликабельность в СЕРП/выдаче
  • Процент отказов/время пребывания на сайте
  • Глубина просмотра на сайте
  • Процент возвратов на сайт
  • Кликабельность в выдаче в плане первого и последнего клика
Кондрашин Валерий

Начался массовый слив Участников конкурса

10 0
15:38 21 июня 2013 — опубликовал Кондрашин Валерий
Ожидаемо. Начали сливать лидеров. Пока нашёл задачку только на одном сервисе. Удивительно, как дёшево это стоит:
UPD: Для избавления от накрутки введён функционал — голосовать за посты можно только через сутки после регистрации.

Симов Николай

SEO оптимизация интернет магазинов

22 0
21:56 8 декабря 2013 — опубликовал Николай
В данной статье речь пойдет про оптимизацию больших, многостраничных магазинов, в т.ч. предоставляемых партнерскими программами.

И сразу начну с главной (и общей для всех) проблемы.

статистика

Это история индексации нескольких интернет магазинов в Яндексе, за последние год-два, и я не делал какую-то специальную подборку, просто взял первые 5 больших магазов старше двух лет.

Динамика очевидная, если у кого-то есть желание, можете продлить ее на полгода-год, и погадать на кофейной гуще, где она остановится, и остановится ли…

Причины банальны – Яндекс не желает держать в индексе огромное количество низкокачественных, бесполезных для поиска страниц, хуже того — грамотно отфильтровать шлак он не умеет, и как следствие из индекса вылетают и нормальные страницы, которые могли бы приносить трафик.
Но и это не все – самая большая проблема в том, что сайты отдающие в индекс большое количество бесполезных для поиска страниц, со временем, обе ПС начинают считать бесполезными для поиска в принципе, т. е. – и то что осталось в индексе ранжируется на уровне плинтуса.

Уже сейчас очевидно, что существующая схема (чем больше страниц тем лучше), утратила смысл, трафика там все равно от 20 до 200 человек (за редким исключением), и то, в основном на главную или разделы, а карточки товара получают единичные переходы по мега НЧ.
Вот с решения этой, ключевой для всех интернет магазинов проблемы я и хотел бы начать.

Контентная ущербность и что с ней делать

Речь в первую очередь о карточках товаров – именно на них приходится львиная доля всех страниц магазина, и именно там, этот самый контент либо отсутствует, либо неуникальный, либо идентичный для каждой группы товаров.
Стандартными методами уникализировать сотни тысяч страниц нереально (для этого придется нанять взвод рерайтеров), поэтому и мало кто пытается, чаще оставляют как есть, в надежде что количество компенсирует качество.
К сожалению это не так, бесполезный для поиска шлак загонит под фильтры весь ваш сайт, в т. ч. и страницы которые этот самый уникальный контент имеют.
Решение проблемы очевидное (хоть и жестокое) – закрыть их от индексации.
До поры, к этому вопросу мы вернемся чуть позже, а сейчас вам нужно обеспечить правильный старт в поисковых системах, и для этого займитесь следующим

Оптимизация разделов, категорий, брендов

Это то с чего нужно начинать (либо дорабатывать на уже существующем магазине) в первую очередь – здесь находятся ваши основные ВЧ, СЧ запросы, именно эти страницы имеют наибольший внутренний вес (за счет чего и продвигать их будет легче). На стандартном магазе таковых от нескольких сот, до нескольких тысяч, что при условии нормальной оптимизации и без карточек может собирать приличный трафик.
g.sidorov

Продвижение сайта за счет поведенческих факторов

18 0
12:53 15 августа 2013 — опубликовал Sidorov Grigoriy
Поведенческие факторы — это критерии ранжирования, которые учитывают параметры поведения пользователей при просмотре поисковой выдачи и посещении сайта.

Поведенческие факторы могут быть запросо-зависимы и запросо-независимы. То есть они учитываются как по отношению к какому-либо запросу, так и по отношению к сайту/документу в целом. Потому продвижение поведенческими факторами по малому количеству запросов не принесет ощутимых результатов, в отличии от продвижения большого пула запросов, что положительно скажется над общим качеством сайта.

Основные оцениваемые данные поисковыми системами:

  • CTR сайта/сниппета в поисковой выдаче;
  • продолжительность и глубина сессии;
  • уровень удовлетворенности посетителя/возврат к выдаче.
Ниже мы рассмотрим поподробнее каждую из метрик.
teplodoma

Есть белая и пошаговая технология продвижения по ПФ

11 2
09:09 16 марта 2014 — опубликовал Sheryagin Vladimir
Коллеги, приветствую. В свете грядущей отмены ссылочного ранжирования хотим поделиться достигнутыми результатами и пригласить к сотрудничеству.

Какую идею отрабатывали: создать сайт коммерческой тематики с ПФ, близкими к ПФ новостников и посмотреть, что получится.

Для эксперимента выбран сайт, продающий строительные услуги: ремонт квартир и ванных комнат, другие строительные услуги. Соотношение продающего и информационного контента на сайте 80 к 20.

Вот ПФ сайта за день:

Статистика ПФ

Как видите, ПФ сайта близки к показателям информационных и новостных площадок, при этом сайт является коммерческим, продающим.

Конверсия К1 (соотношение посетитель/звонок или заявка) составляет 3,3 процента
Конверсия К2 (соотношение оплаченный заказ/звонок или заявка) составляет) 70 процентов

Цены выше, чем цены конкурентов на 10-15 процентов.

Как этого удалось добиться:

1. Мы разбили семантическое ядро путем применения анализа АВС на три группы, группа А — люди без выраженной потребности, которые еще не выбрали услугу и товар.

В- люди, которые знают, чего хотят и ищут "Сколько это стоит?»