SEO (Статей: 31)

Google развеял один из SEO-мифов. В официальном аккаунте в Twitter поисковик сообщил, что «трафик на веб-сайт не является фактором ранжирования».

image

На вопрос «Можно ли считать реферальный трафик фактором ранжирования? Имеет ли он какую-либо корреляцию с SEO?» Google ответил:
Нет, трафик сайта не является фактором ранжирования. Если вы начинаете получать релевантный трафик, и пользователи любят ваш сайт, это отличное начало!

Правда, данный ответ породил еще больше вопросов. Имел ли ввиду поисковик то, что реферальный трафик не является фактором ранжирования или говорил о том, что любой трафик не учитывается при ранжировании, остается загадкой.
Как протестировать продающий текст, до того, как он отправлен в работу. Рецепт Гари Хелберта.

Многие думают, что классный копирайтер, вроде Гари Хелберта может с ходу написать продающий текст с отличной конверсией. Да, иногда так бывает, но далеко не всегда. Собственно, продающим текст всегда становится не после написания, а после тестирования!

А можно ли узнать перспективность продающего текста ещё до того, как он отправлен в работу (на него пошёл трафик)?! Читайте рецепт от Печатного принца:

Всегда читайте написанный Вами продающий текст вслух и очень громко.

Занимаясь этим важным делом, Вы накопаете огромное количество невнятных и невыразительных мест в Вашем тексте, которые нуждаются в доработке и переделке.

Выявить их очень просто — они находятся в точности там, где Вы начнете «спотыкаться» при чтении.
Знаете, как в свое время это делал лично я?

Тогда я жил в городишке Массилион, штат Огайо. В паре миль от моего домика располагалось увеселительное заведение под названием «Бар у Майка», в котором постоянно было полно самых что ни на есть обычных людей, каждый из которых, между тем, был хорошим потенциальным клиентом для книг, которые я тогда продавал посредством прямого почтового маркетинга.

Так вот, после того, как я заканчивал продающий текст, я шел в этот бар и начинал читать там написанные страницы вслух. А дальше события развивались по одному из трех сценариев:

* народ в баре начинал орать: «Гари, заткнись! Или кто-то другой поможет тебе заткнуться!» — в этом случае, само собой было очевидно, что полученный текст никуда не годен;

* народ начинал говорить: «Оу, Гари, поздравляю! Отличный продающий текст!» — в этом случае мне так же было ясно, что текст никуда не годится — я рвал его в клочки и выбрасывал в корзину;

* а вот если народ слушал чтение текста, не перебивая меня, а под конец раздавались реплики...
«Гари, Где Мне Взять Эту Книгу?!»
...мне становилось понятно, что наконец-то я написал то, что нужно!


Гари С. Хэлберт
(Печатный Принц)
Очень важно настроить правильно 301 редирект при переезде на новый домен, что бы сохранить все показатели.
1.Для склейки доменов для яндекса важно что бы файлы robots.txt на обоих сайтах были идентичными, тогда домен склеивается за 1 - 2 выдачи, придет сообщение на яндекс вебмастер.
Пример
User-agent: Yandex
Disallow:
Host: www.newsite.com
Так будет выглядеть robots.txt на обоих сайтах
2. Настраиваем непосредственно сам 301 редирект, прописываем в файле .htaccess

RewriteCond %{REQUEST_FILENAME} robots.txt$ [NC]
RewriteRule ^([^/]+) $1 [L]
RewriteCond %{HTTP_HOST} !^www.site.com  [NC]
RewriteRule ^(.*)$ http://www.newsite.com$1 [R=301,L]

На файл robots.txt редирект не настраивается, он исключается и должен быть доступен по адсресу старого домена/ Проверить доступность можно в яндекс вебмастере. Если все сделано правильно домены будут склеены.
Google начнёт использовать HTTPS в качестве фактора положения сайта в своей поисковой выдаче — этот шаг должен побудить измениться веб-разработчиков, которые не спешили с повышенными мерами безопасности или которые сомневались, насколько это важно для их сайта,
Поддержка HTTPS не будет иметь такого же веса, как например качество контента, и в первое время новый критерий будет затрагивать не более 1 % всех глобальных запросов — таким образом Google даёт веб-мастерам время на переход на HTTPS. Однако со временем эффект шифрования на поисковую выдачу будет усиливаться, по мере того как компания уделяет всё большее значение безопасности сайтов.

Google также обещает опубликовать серию статей об эффективном применении TLS (HTTPS также известен как HTTP над TLS или Transport Layer Security), так что разработчики сайтов смогут лучше понять, что они должны сделать для того, чтобы реализовать технологию, и каких ошибок можно избежать. Эти советы будут включать такие вопросы, как какой тип сертификата необходим, как использовать относительные URL-адреса для ресурсов на том же защищённом домене, передовой опыт по индексации сайтов и многое другое.

Кроме того, Google советует веб-разработчикам проверить свои сайты с HTTPS с помощью инструмента Qualys Lab ,В случае возникновения вопросов компания предлагает обращаться в свой где её сотрудники уже участвуют в активных дискуссиях с сообществом.

Объявление привлекло много откликов от разработчиков сайтов и участников SEO-отрасли — например, ссылок в блоге Google набрал больше 1000 комментариев. По большей части, сообщество, кажется, поддерживает нововведение или по крайней мере признаёт, что они ожидали чего-то подобного и не удивлены.

Сам Google в последние месяцы предпринимал шаги, чтобы лучше защитить ​​собственный трафик, в том числе включив шифрование трафика между своими серверами. Gmail mafoz.com также теперь всегда использует зашифрованное HTTPS-соединение, что защищает письма от перехвата на пути между компьютером пользователя и серверами Google. HTTPS и шифрование сайтов существуют уже многие годы, но, видимо, последние разоблачения о государственных масштабах слежки за пользователями наконец-то подталкивают сообщество к повышенному вниманию к своей безопасности.
Ведение блога - занятие невероятно увлекательное. Также оно может стать невероятно нудным, если вы будете вытягивать посты из себя щипцами. Для того, чтобы такого не произошло, а вы были уверены, что выбрали правильную нишу для ведения блога - вам нужно проделать такую операцию перед запуском блога:

Взять блокнот.

Написать основную тему вашего блога.А точнее ту нишу, которую ваш блог займет.

Стрелочками от этой темы должны отходить те категории, которые будут существовать на вашем блоге.

А от категорий будут отходить посты и одна серия.

Получиться должна вот такая конструкция:

Перед запуском блога

Перед запуском блога

Для каждой из ступенек лично я применяю мозговой штурм. Прелестью этой структуры является то, что вы уже загрузили себя работой на ближайшие пару месяцев. Вам не нужно искать темы для постов и выжимать слова из себя через силу. Теперь можно быть уверенным, что вам есть что сказать людям.

Статья написана специально для сайта visavi.net
Копирование данного материала ЗАПРЕЩЕНО!!!
1. В первую очередь, картинки вашего сайта должны быть уникальными. Для интернет-магазинов проблематично иметь уникальные изображения товаров. Поэтому для них можно искусственно уникализировать изображения, например, добавив на картинку с товаром изображение человека.

2. Наиболее важным с точки зрения поисковой системы является текст возле картинки и текст описывающий картинку.

3. Для того, что бы картинка заняла высокое место в поиске, она должна быть одна на своей странице.

4. Страница, на которой расположена картинка, должна быть оптимизирована под то же ключевое слово, что и картинка. Как минимум, в заголовке страницы, должны быть те же ключевые слова, что и в описании картинки.

5. Имя файла с картинкой должно содержать те же самые ключевые слова. Ключевые слова должны быть разделены знаком «тире».

6. Краткое описание картинки должно быть как в теге alt, так и в теге Titile. Эти описания могут быть одинаковыми.

7. Подписывайте ваши изображения на странице. Под каждым изображением вверху или внизу напишите его полное название ( в отличие от короткого описания в тегах Alt и Title).

8. Если это уместно, рядом с полным названием изображения напишите пару строк, описывающих изображение.

9. Один из самых эффективных, но малоизвестных приёмов – это использование ключевых слов в ссылке, которая ведёт на увеличение изображения. Например, вместо того чтобы писать «Посмотреть крупнее», напишите «Посмотреть телефон nokia 6700 крупнее».

10. Так как, в результатах поиска все картинки представлены в небольших размерах, проверьте, что б ваша картинка при уменьшении оставалась читабельной и привлекательной.

11. После того как ваше изображение появилось в результатах поиска, проверьте надписи под ним и если надо, откорректируйте их.
Очень многих Web-мастеро интересует вопрос быстрой индексации их сайта поисковыми системами. Хочу рассказать о
нескольких своих наблюдениях, которые помогут Вашему сайту
оказаться в индексе поисковых систем быстрее.
Как не странно, чаще всег такой вопрос возникает при создании бесполезных сайтов, дорвеев или других неинтересных для посетителей сайтов. Web-мастера создают такие сайты, с автоматически-сгенерированным контентом или скопированным из
других источников, для получения посетителей и следовательно денег. Я и сам имел опыт создания таких
сайтов, поэтому знаю об этом не понаслышке.
Зачем я пишу об этом? –
Спросите Вы.
А это и есть первый и фактов, который я наблюдаю, поисковые
системы быстрее всего индексируют сайты с интересным и уникальным контентом. Если Вы хотите чтобы Ваш сайт быстро попал в индекс поисковой системы и был в нём долгое время, уделите этому вопросу особое внимание.
Ещё один интересны момент это социальные закладки. Добавление
Вашего сайта в социальные закладки, несомненно, ускорит его индексацию. Приведу несколько примеров сайтов социальных закладок:
• www.memori.ru
• www.toodoo.ru
• www.bobrdobr.ru
• www.zakladok.net
Ваш сайт буде проиндексирован быстрее, если на него будет ссылаться какой-нибудь другой
крупный проект. Купите несколько ссылок с главных страницы крупных сайтов с большими показателями
ТИЦ и PR, это тоже очень поможет проиндексировать Ваш сайт быстрее. Купить ссылки Вы можете на одной из бирж ссылок SAPE или Linkfeed.
Эти методы буду работать, как и для
хороших сайтов, так и для
бесполезных с той лишь разницей что хорошие сайты останутся в индексе, а Нехорошие нет. =)
Параллельно с появлением поисковых систем возникли методы, позволяющие сайту достигать высоких позиций в результатах поиска. Как ни старались поисковики объяснить владельцам сайтов, что поисковую систему нельзя рассматривать в качестве источника трафика и место в результатах поиска никому не гарантировано, а те все за свое. Так хочется и ненавистного конкурента по целевому запросу обогнать, и объем трафик на сайт повысить, и объем продаж через Интернет увеличить, что никакие доводы поисковиков не помогают.

Тут на авансцене и появляются оптимизаторы, обладающие, по слухам, сакральными знаниями о принципах работы поисковых систем, и утверждают, что смогут сделать явью мечты владельца сайта о первых местах в результатах выдачи. Все бы хорошо, но не дают покоя владельцу сайта бродящие, как призраки, по сети мрачные истории о том, как один солидный сайт захотел «взлететь ракетой» во всех поисковых системах, но полет оказался недолговечным и «ракета» с оглушительным грохотом упала на землю, оставив груду жалких обломков. Нет теперь этого сайта ни в «Яндексе», ни в «Рамблере», ни в «Апорте», а его владелец проклинает тот день, когда решил субсидировать «полет», выдав $300 отмороженному студенту-хакеру. Все эти истории порой пестрят такими неприглядными терминами, как «спамеры», «дорвеи», «непотизм» и «клоакинг».

Пытаясь разобраться в ситуации дальше, потенциальный заказчик узнает о том, что в случае со «взлетом ракеты» применялись так называемые «черные методы», использование которых строго карается поисковыми системами. Но существуют еще и «белые» оптимизаторы, которые вроде как и результата хорошего достигают и гарантию 99% процентов дают, что сайт в поисковых системах не забанят. Копнув еще глубже, владелец сайта убеждается, что разделение между «белыми» и «черными» методами отнюдь не является четким и существует еще большая группа методов – «серые», которые могут восприниматься поисковыми системами по-разному, в зависимости от конкретной ситуации. От такой пестрой палитры у заказчика учащается пульс, начинает кружиться голова, и на весь рекламный бюджет он закупает баннерную рекламу, которая хоть и дает меньший эффект, но неопределенности с ней гораздо меньше.

Но никакая баннерная реклама не заменит то, что может дать грамотное продвижение сайта: высокие места по целевым запросам в поисковых системах, оптимизацию внутренней ссылочной структуры, создание новых страниц под целевые запросы, анализ эффективности рекламных площадок и поведения аудитории на сайте, - и это еще не полный перечень всех благ. Поэтому я посоветую владельцу сайта перевести дыхание, глубоко вдохнуть и попытаться сделать еще несколько усилий для прояснения ситуации.

Согласно восприятию представителей поисковых систем, все методы оптимизации можно условно разделить на «белые», «черные» и «серые».

«Белые» методы

Это самые трудоемкие и медленно действующие методы. Они необходимы сайту для получения максимально стойкого эффекта от продвижения. Особенность «белых» методов состоит в том, что до их применения нужно провести много предварительных рутинных работ с сайтом (составление семантического ядра сайта, списка соответствия страниц запросам и т. д.). Это необходимо для дальнейшего качественного продвижения. Потом в дело идут изменение кода страниц сайта, наращивание контента путем создания новых страниц, изменение внутренней ссылочной структуры, обмен ссылками с тематически близкими сайтами, проставление внешних ссылок с каталогов, прайс-листов и прочее. Впрочем, рассказывать про «белую» оптимизацию далеко не так интересно, как наблюдать ее результаты.

«Черные» методы

«Черные» методы – это фактически откровенный спам, от которого страдает и рядовой пользователь, не нашедший то, что искал, и поисковая система, у которой ухудшается качество поиска. А больше всего от них страдает сам сайт, применяющий такие методы, поскольку рано или поздно он попадет в бан поисковых систем, откуда выбраться будет непросто. По сути, применение таких методов аналогично употреблению наркотиков: сайт один раз «ширнулся» и какое-то время находится в эйфории (получает целевых посетителей). Но чем сильнее эта эйфория (выше места в поисковой системе), тем больше вероятность, что именно эта доза окажется последней и наступит передозировка (бан в поисковой системе).

Невидимый текст

Действительно, несколько лет назад такой нехитрый фокус мог сработать, но поисковые системы уже давно усовершенствовали свои алгоритмы, и текстовые критерии далеко не так важны, как прежде. Поэтому подобное занятие, помимо рискованности, абсолютно бесполезно.

Но, что удивительно, такой ерундой занимаются не только сайты adult-тематики и манимейкеры, но порой и вполне солидные, уважаемые интернет-ресурсы. Что это, интересно, за мелкий текст находится в левом углу сайта «Независимого обзора провайдеров»

Чтобы не смущать уважаемую публику, не будем приводить содержимое этого абзаца. Но подобные слова гораздо больше подходят для порнографического рассказа, чем для проекта о провайдерском бизнесе.

Невидимый текст может принести эффект только в том случае, если в него включены целевые для этого сайта запросы. Например, если сайт, торгующий диванами, напишет на главной странице белым по белому 10 раз слово «диваны», то положительный эффект на какое-то время возможен. Но стоит конкуренту обнаружить подобный пассаж (а это совсем несложно) и довести его до сведения модераторов поисковых систем, как сайт моментально окажется в бане и все его страницы пропадут из поисковой базы.

Оценим этот метод по трем параметрам.
Распространенность в Рунете. Высокая
Эффективность. Средняя
Опасность бана. Очень высокая

Дорвеи с редиректом

Иногда, когда по той или иной причине нет возможности изменить код самой страницы, создается еще одна страница (не обязательно даже на том же домене) с бессодержательным для пользователя наполнением, напичканная ключевыми словами. На этой странице (дорвее) ставится замаскированный для поисковых роботов редирект на основную страницу.

Далее эта входная страница раскручивается и попадает на верхние строчки поисковых систем. Таким образом, пользователь, перейдя по ссылке с поисковой системы на входную страницу, автоматически перебрасывается на основную. Мало кому из пользователей это может понравиться, и уж тем более не нравятся такие фокусы поисковым системам.

Ситуация еще больше усугубляется, когда входные страницы создаются не вручную, а генерируются в больших количествах автоматически. Весь этот мусор из тысяч страниц подается на индексацию поисковой системе, и сайт какое-то небольшое время до бана (обычно не больше месяца) получает с дорвеев дополнительный трафик. Поставщики подобных услуг по натуре обычно типичные «лохотронщики», заинтересованные только в том, как «срубить с клиента побольше бабла» и сгинуть в кусты.

Найти пример дорвеев с редиректом совсем несложно – достаточно задать запрос типа «секс рефераты порно» и полазить по выдаче – велика вероятность, что вас перенаправят на другой сайт. Подобная технология больше всего распространена среди сайтов adult-тематики, но порой применяется и сайтами других направлений.
Распространенность в Рунете. Средняя
Эффективность. Средняя
Опасность бана. Очень высокая

Клоакинг

Под этим термином скрывается целый спектр методов, позволяющих выдавать разные страницы разным пользователям. Вообще-то у этой технологии есть довольно много полезных применений. Например, когда сервер идентифицирует ip-пользователя по географическому признаку и выдает ему страницу на родном языке.

Однако в этом разделе речь пойдет только об одном виде клоакинга, который смело можно занести в самые «черные» методы – это поисковый клоакинг. Технически он реализуется следующим образом: специальные скрипты сверяют ip-адрес посетителя с базой данных адресов поисковых роботов. Если это обычный посетитель, то ему выдается нормальная страница, а если это поисковый робот, то он получает совершенно другую страницу, неприглядную для пользователя, но оптимизированную для поисковиков.

Хорошие клоачные скрипты довольно дороги, к тому же недешево стоит постоянно обновлять базу данных адресов поисковых роботов, поэтому клоакинг требует определенных затрат. Этот метод очень распространен в западном Интернете и практически нераспространен в Рунете. Наши спамеры до него пока не дозрели (вероятно, из-за того, что реализация метода требует определенных интеллектуальных усилий), предпочитая пачками генерировать дорвеи.

Тем не менее, несмотря на относительную сложность метода, отловить клоакинг немногим труднее, чем невидимый текст. Бдительному конкуренту для идентификации клоакинга достаточно лишь посмотреть на страницу в окне своего браузера и сравнить ее со страницей в кеше поисковой системы. Если это две абсолютно разные страницы (причем та, что в кеше, явно сделана для поисковика), то налицо клоакинг. Конкурент подает сигнал в поисковую систему, и страница надолго (а может и навсегда) пропадает из индекса.
Распространенность в Рунете. Очень низкая
Эффективность. Высокая
Опасность бана. Очень высокая

Непотистский спам

Работа со ссылками – тема довольно щекотливая для поисковых систем. По крайней мере, при ее обсуждении с оптимизаторами тумана поисковики напускают больше, чем обычно. Откровенно «черные» методы выделить, конечно, можно. Это размещение ссылок, тем или иным образом скрытых от пользователя, и создание Link Farm’ов (страниц, предназначенных исключительно для размещения большого количества ссылок на самые разные ресурсы с целью повышения релевантности). Но уровень субъективности в оценке мотивов постановки конкретной ссылки гораздо больше, чем в описанных ранее «черных» методах вместе взятых. (См. «серые методы».)

Также стоит заметить, что ссылочный спам (или «непотистский спам», как он называется по-научному) обычно карается не полным баном сайта, а занесением его в непот-лист. Если сайт находится в непот-листе, то все ссылки с его страниц перестают учитываться поисковой системой, что обычно приводит к резкому снижению позиций сайта.

«Серые» методы

«Серые» методы могут трактоваться поисковиками по-разному в зависимости от конкретного случая. Ситуация была бы более определенной, если бы существовал конкретный список запрещенных методов, утвержденный поисковыми системами. Вокруг создания этого списка было сломано немало копий поисковиками и оптимизаторами, но на данный момент воз и ныне там. Поисковые системы не хотят определенности, поскольку боятся изобретательности спамеров, способных найти лазейки в любом четком своде правил, и не хотят лишать своих модераторов милой забавы проставлять запятую в предложении «казнить нельзя помиловать» по собственному разумению.

Сейчас к «серым» методам можно отнести большинство методов работы со ссылками. Причем грань «можно-нельзя» довольно зыбкая.

Четко разделенные ссылочные блоки воспринимаются поисковыми системами нормально (рис. 3).

Каталог ссылок по разнообразным темам вряд ли приведет в восторг представителей поисковиков, но банить на данный момент такие сайты не будут.

А вот владельцы проектов, размещающие у себя на сайтах беспорядочный набор ссылок, явно нарываются на запятую после слова «казнить» .

Также к «серым» методам можно отнести создание входных страниц (дорвеев), увеличение частоты ключевого слова на странице, злоупотребление тегами

И напоследок…

Сравнительная эффективность методов оптимизации

Применять «черные» методы не имеет абсолютно никакого смысла – никогда и ни для кого. Эффективность «черных» методов ниже, чем у «серых» и «белых», а уж про опасность бана и говорить не приходится.

«Серые» методы чуть предпочтительнее «белых» с точки зрения быстродействия и затрат ресурсов, но уступают «белым» методам в эффективности. К тому же у «серых» методов присутствует, хоть и небольшая, опасность бана. Я бы рекомендовал использовать «серые» методы сайтам фирм малого или среднего бизнеса, не желающих тратить на продвижение слишком большие суммы, но заинтересованных в нахождении в поисковых системах по небольшому списку запросов.

Ну а если вы солидная фирма, которая всерьез рассчитывает сделать сайт хорошим источником прибыли для своего бизнеса и готова потратить на это определенные средства (не такие уж и большие – порядка $1000 в месяц в течение полугода), то добро пожаловать в гости к «белым оптимизаторам».

Каждого клиента ожидает индивидуальный подход и полный спектр качественных работ по продвижению сайта.

Для visavi.net Добавил vtx7
Целью либой поисковой системы далее ПС это качественный ответ на запрос пользователя. То есть пользователь вводит скачать видеоурок о том как правильно открывать мышкой пиво то ПС должна дать ему ответ на запрос ссылки где же его можно скачать. Из-за чего же можно попасть в не милость поисковиков?? Это внутрение и внешние факторы. Внутрение это качество самого сайта, оптимизация под запросы, плотность кеев,скорость загрузки страницы, наличие уникального контента их много все перечислять не будем.Еще есть внешние факторы это конечно же качество и количество бэков на сайт, количество отказов. Теперь рассмотрим отдельные случаи. Почему же сайт попал в не милость ПС и не дает страницы в индекс. Не нужно путать бан ПС и простую просадку в позициях. Как определить что ваш сайт попал в бан?? Для гугла используйте запрос site:адрес вашего сайта без пробелов пример site:wapftp.ru и увидите количество страниц в индексе. Если что то там нашли это значит с вашим сайтом все ок. Для яндекса смотрите webmaster.yandex.ru там четко будет показано количество страниц в индексе. Если яша показывает только одну главную хотя раньше там было много страниц значит вы в чем то провинились перед ним. Что может привести к бану ваш сайт? Это использование в первую очередь для яши копипаста. ПС не будет держать в индексе более 9000 одинаковых страниц она выберет самую трастовую и оставит ее. Далее это большое количество ссылок на всякие ГС типа топов сайтов и прочих унылых ресурсов. Если очень надо до прячьте их в display: none и закрывайте в noindex и nofolow. Также не используйте редиректов в любом виде это 100% гвоздя в крышку гроба вашего сайта. В этой статье мы рассмотрели основные моменты банов пс.
http://profit-school.ru/
После появления бесплатного скрипта белого каталога вап сайтов wbcat от wapweb'а, за этот относительно короткий срок в вапе появилось очень много бeлых каталогов.. Добавлять свой сайт в каждый из них - пустая трата времени! Почти всё из них находятся в бане яндекса, на некоторых столько рекламы что прямая ссылка от них на ваш сайт не даст никакой пользы, некоторые вообще неиндексируються.. поэтому хочу вас ознакомить со списком белых каталогов которые имеют популярность в поисковых системах google, yandex, rambler...
Список пока очень короткий но поверьте пользы от них будет помного больше чем от 100 угкаталогов
---
Всё эти каталоги хорошо индексируемы яндексом и гуглом

http://o5cat.ru CY 30, PR 2

http://katwap.ru PR 3



http://katalogen.ru PR 1

http://skykat.ru PR 2
http://cat.avtobys.com PR 1
http://katmobi.ru PR 1
http://cat.1kz.in PR 3
http://whitecat.pp.ua PR 1
http://goodwap.pp.ua PR 1


http://0-key.ru PR 3, всегда щитал этот каталог линкпомойкой, но оказалось что его все страницы 2-го уровня имеют PR 2
---
*новые не плохие каталоги, не линк помойки
Облако тегов / Авторы