xn----8sbafjhagrco7bhnp0at.su Open in urlscan Pro Puny
продвижение-сайта.su IDN
81.211.75.142  Public Scan

URL: http://xn----8sbafjhagrco7bhnp0at.su/
Submission Tags: 💩 xn ---- su l4ing cccp ru h8 mass Search All
Submission: On January 25 via manual from UA — Scanned from DE

Form analysis 0 forms found in the DOM

Text Content

ПРОДВИЖЕНИЕ-САЙТОВ.SU

 * Раскрутка сайтов
 * Внутренняя оптимизация
 * Поведенческий фактор и требования к его наклику
 * Почему не стоит использовать услуги сайтов, предлагающих живые клики за
   деньги?
 * Канибализация запросов
 * Семантическое ядро.
 * Влияние одинаковых title и h1 на релевантность страницы

 * Зачем нужна раскрутка?
 * Внутренняя оптимизация
 * Внешняя оптимизация
 * Самые распостранённые плохие идеи при раскрутке


РАСКРУТКА САЙТОВ

В современном мире обязательным условием для любого активно развивающегося
бизнеса является наличие собственного сайта.

Предоставление сведений о фирме, оказываемых ей услугах, информация о товарах,
онлайн-покупки, обратная связь с клиентом, и много всего другого — это то, что
позволяет грамотно написанный сайт.

Но какой прок с сайта, если о нём никто не знает? Поэтому написанию хорошего
сайта обязательно должна сопутствовать раскрутка, иначе вы рискуете оказаться
единственным посетителем вашего сайта.

Что такое раскрутка?

Раскрутка — это комплекс мер, направленный на максимальное продвижение вашего
сайта в поисковых системах. Она включает себя множество инструментов, о которых
мы и поговорим ниже.


ВНУТРЕННЯЯ ОПТИМИЗАЦИЯ.

Краеугольный камень любой раскрутки. вы можете использовать любые средства для
раскрутки вашего сайта с любой эффективностью, но если ваш сайт не
оптимизирован, они все пропадут втуне.



Основными требованиями внутренней оптимизации являются:

 * Наличие на вашем сайте ключевых фраз, по которым вы хотите, чтобы его
   находили в поисковике.
   
   Например, «купить билет в Москву». Иначе ваш сайт попросту не найдут. Важным
   условием для дальнейшего продвижения является ТОЧНОЕ соответствие ключевых
   фраз, так, например, если вы раскручиваете ваш сайт по фразе «купить билет в
   Москву», но на вашем сайте вместо неё будет лишь фраза «поехать в Москву», то
   ваши усилия по дальнейшей раскрутке окажутся безрезультатными. Так же следует
   обратить внимание на то, чтобы текст на вашем сайте был по возможности
   представлен именно в виде текста, а не картинок, видео или flash-анимации,
   так как подобный контент не будет правильно обработан поисковой системой.

 * Отсутствие плагиата и повторяющегося текста. Любому пользователю хочется
   видеть хороший, уникальный контент, а не бесконечные повторения одного и того
   же в тысяче разных обёрток, и поисковики отвечают на желания своих
   пользователей тем, что повышают в рейтинге сайты, предоставляющие уникальный
   контент, и понижают сайты, допускающие дублирование контента, или, ещё хуже,
   плагиат. Поэтому одним из основных условий продвигаемости вашего сайта
   является наполнение его уникальным, неповторяющимся контентом. Так же
   разумной мерой предосторожности будет защитить ваши тексты, разместив их
   перед добавлением на ваш сайт в Яндекс.Вебмастере. Это позволит, в случае
   недобросовестной конкуренции со стороны сайтов с аналогичной тематикой,
   доказать Яндексу, что ваш контент уникальный, и вы жертва плагиата, а не сами
   являетесь плагиатщиком, что позволит Вам сохранить ваши позиции в поисковой
   выдаче и понизит позиции тех, кто пожелал воспользоваться вашим трудом.
 * Быстрое время отклика сайта. Одним из основных требований к сайту является
   удобство пользования, которое в свою очередь, зависит от времени отклика
   сайта. Отвечая на желание пользователей получать удобные, быстрые сайты,
   поисковые системы повышают результаты более быстрых сайтов в выдаче, даже в
   ущерб информативности. Таким образом, для эффективного продвижения требуется
   быстрое время отклика сайта, к примеру, для Яндекса оно составляет 200мс.
 * Низкая «тошнота» текста. Наверняка вы видели сайты вида «Лучший сайт по теме
   купить билет в Москву, купить билет недорого, поездка в Москву...».
   Согласитесь, малоприятное зрелище, и поисковики это понимают. Поэтому
   рекомендуется поддерживать разумную частоту включения ключевых слов, дабы не
   портить текст и не навлечь гнев поисковых систем. Так же рекомендуется делать
   весь текст ясно различимым и хорошо видимым, избегая крупных массивов
   каким-либо образом скрытого текста (белый текст на белом фоне, спойлеры,
   блоки с отключённой видимостью и т.д.) — поисковые системы могут счесть это
   попыткой их обмануть, и пессимизировать ваш сайт.

 * Разумное количество исходящих ссылок.
   
   Данный момент будет более подробно рассмотрен ниже, пока же скажем, что
   поисковики обычно нелояльно относятся к линкопомойкам или дорвеям.
 * Написание сайта без использования автоконструкторов, размещение на платном
   хостинге/VDS/отдельном сервере, и с нормальным доменным именем. Поисковики
   традиционно занижают (а некоторые и вовсе не учитывают) сайты, размещённые на
   бесплатных хостингах, и/или созданные с помощью автоконструкторов. Это
   вызвано тем, что автоконструкторы и бесплатный хостинг обычно используются
   теми, кто не в состоянии оплатить нормальный хостинг и труд специалиста, или
   не имеет достаточных навыков для самостоятельного написания сайта. Что, в
   свою очередь, подразумевало низкую авторитетность данного сайта, как
   источника информации. Так же, бесплатные хостинги просто обожают использовать
   новички, только начинающие осваивать web-разработку, и юные SEOшники, всё ещё
   верящие, что во втором десятилетии 20 века всё ещё возможно накрутить рейтинг
   сайта в поисковой системе с помощью примитивного дорвея (сайта, обычно
   содержащего какой-то случайный текст, и ссылки на сайт, который им
   продвигается. Неплохо работали во времена, когда Ларри Пейдж и Сергей Брин
   были ещё студентами, но с тех пор немного устарели). Так же стоит быть особо
   осторожным при выборе доменного имени. Идеальным вариантом будет доменное имя
   2 уровня (http://mysite.ru). Так же допустимы доменные имена 3 уровня, но с
   ними требуется проявить осторожность. Если некоторые доменные зоны 3 уровня
   являются вполне «приличными» (так, например, Google не гнушается использовать
   в качестве основного доменного имени для Украины http://google.com.ua), то за
   другие (*.h1.ru-*.h16.ru, *.ucoz.ru и т. д.) вполне реально отправится в
   хвост поисковой выдачи, или вовсе быть проигнорированными поисковиками.
 * Отсутствие вирусов и излишне навязчивой рекламы. В идеале рекламы на сайте не
   должно быть вовсе. Но, если вы её всё-таки разместили, убедитесь, что её
   количество адекватно, она не является навязчивой, и не нарушает моральные
   нормы сайта. Поисковые системы стараются фильтровать сайты, на которых низкое
   соотношение полезный контент/реклама. Кроме того, сайт, переполненный
   рекламой, имеет все шансы, кроме санкций непосредственно за рекламный
   контент, попасть сразу под несколько фильтров (дорвей/линкопомойка,
   плагиат/заимствования, и т. д.), что так же не усилит его позиции.
   Всплывающие окна, автопереходы и прочие способы завести клиента на сайт
   рекламодателя против его воли так же не прибавят Вам любви поисковиков.
   Немногим меньше вашему сайту навредят тизеры. И, наконец, вирусы. Вовсе не
   обязательно, чтобы на вашем сайте был код, пытающийся эксплуатировать
   Spectre/Meltdown, чтобы попасть под этот пункт. Вполне достаточно, чтобы ваш
   рекламный партнёр невнимательно проверил поступившее рекламное объявление, и
   у Вас на сайте появилось объявление вида «Внимание! ваша версия Adobe Flash
   Player устарела и содержит ошибки! Для того, чтобы обновить, перейдите на
   http://get.abode.com, и скачайте обновлённую версию». Подобного объявления,
   если его увидит бот поисковика, будет более чем достаточно, чтобы обвинить
   ваш сайт в предоставлении угрозы для пользователей, и дальнейшие усилия по
   продвижению и раскрутке сайта ни к чему не приведут. (В лучшем случае. В
   худшем случае они приведут к вниманию сотрудников отдела «К»).
 * Размещение разных сайтов компании на разных IP адресах. Этот пункт так же
   можно условно отнести к внутренней оптимизации. Яндекс, столкнувшись с
   несколькими сайтами одной тематике на одном IP адресе, может счесть их
   зеркалами, и выбрать из них один, который будет участвовать в поисковой
   выдаче, отбросив остальные. С высокой степенью вероятности это произойдёт с
   сайтом, который просто доступен по нескольким доменным именам сразу
   (например, mysite.com и mysite.ru), с меньшей — с несколькими сайтами одной
   компании, с незначительной (но она всё равно присутствует) с несколькими
   сайтами по одной тематике, лишь волей случая и хостинга оказавшихся на одном
   IP.


ОПТИМИЗАЦИЯ ПОВЕДЕНЧЕСКОГО ФАКТОРА

Одним из самых важных параметров для современных поисковых систем при
определении самого оптимального результата является поведенческий фактор —
результат анализа того, какие пользователи посещали сайт, как часто, как долго
там находились, какую информацию на нём искали, какие ресурсы посещали до/после
этого и т. д. Это очень сложный процесс, требующий огромных организационных и
вычислительных мощностей, и труда сотен специалистов во многих областях, от
программирования и анализа больших данных до юриспруденции и культуры. Понять,
кто заходил на сайт ранее, почему, классифицировать их по профессии,
политическим предпочтениям, музыкальным вкусам и т. д. Определить, у каких из
этих категорий был наилучший пользовательский опыт (User experience),
определить, что именно они искали на сайте, и на основе этого предположить,
каким пользователям и по каким вопросам данный сайт будет наиболее интересен.
Разрешить юридические казусы, связанные с местным законодательством в области
использования пользовательских данных. Всё это требуется для того, чтобы
доставить пользователю наиболее актуальный и соответствующий его ожиданиям
результат.

Достоверно подделать поведенческий фактор практически невозможно — для этого
требуются сотни тысяч «чистых» IP - адресов, высокопроизводительные кластеры для
эмуляции миллионов самых разнообразных устройств, с самой разообразной историей,
от допотопного «Пентиума» с XP на борту, оставленного дедушке, чтобы он мог
связаться с друзьями в «Однокласниках» до современного смартфона, купленного
родителями своему ребёнку за успехи в учёбе, и офисного компьютера, с которого
офисный сотрудник ищет наилучшее предложение по требующимся его фирме видам
сырья. Это требует огромных трудовых и материальных затрат, которые по силам
лишь крупным компаниям с бюджетом в десятки миллионов долларов, что делает
самостоятельную оптимизацию поведенческого фактора нерентабельной не только для
малого и среднего бизнеса, но даже для многих крупных компаний, и задаёт высокую
планку профессионализма сотрудников и материальных инвестиций основателей
бизнеса, специализирующегося на оптимизации поведенческого фактора.
вышеприведённые причины привели к тому, что на территории СНГ в данный момент
присутствует лишь одна компания, способная на оказание подобных услуг, и
оказывающая их на коммерческой основе (InterPromoution).


КРАЙНЕ ПЛОХИЕ ИДЕИ ПРИ ПРОДВИЖЕНИИ САЙТА.

Мы привели небольшой список крайне плохих идей, которые посещали, наверное,
каждого, кто желал и желает продвинуть свой сайт. Ниже перечислены эти самые
идеи, и причины, по которым так делать не стоит.

 * Покупка/продажа/обмен ссылок. Эта стратегия прекрасно работала, позволяя
   вывести в топ любой сайт в самые кратчайшие сроки. Сайты, ей пользовавшиеся,
   приносили их владельцам миллионы, те же, кто её отвергали, исчезали в бездне
   сотых страниц выдачи, одностраничник с хорошими входящими ссылками мог
   повергнуть крупный информационный портал без них, ссылки со страниц с хорошим
   PageRank’ом были универсальной валютой, и за них даже могли убить. Но это
   было в 2000-х. Сначала поисковики научились определять и банить дорвеи и
   линкопомойки (сайты, предоставляющие необоснованное количество индексируемых
   ссылок на внешние ресурсы). Затем они улучшили алгоритмы поиска по странице,
   уменьшив роль индекса цитирования, ввели анализ поведенческого фактора, а под
   конец многие (как, например, лидер российского рынка Яндекс) и вовсе
   отказались от учёта индекса цитирования как от неэффективного, страдающего
   неизлечимыми структурными недостатками, детально изученными и хорошо
   известными каждому seo’шнику, при этом оставив фильтры и санкции за
   умышленную накрутку этого самого индекса, что положило конец эпохе ссылок по
   крайней мере в России.
 * Заполнение страниц сайта максимально полным списком ключевых фраз. На первый
   взгляд идея добавить на страницу ключевую фразу во всех возможных вариантах
   кажется очевидной и абсолютно правильной. Но затем обычно выясняется, что без
   ущерба для читаемости и/или зашкаливания критерия «тошноты»за всякие разумные
   пределы это сделать невозможно. И тогда, обычно, приходит «гениальная» идея —
   а что, если вывести не весь текст на страницу, а только часть,
   предназначенную для пользователя, а остальную, предназначенную для
   поисковика, как либо скрыть — напечатать белым текстом на белом фоне,
   поместить в блок, которому выставить visible=”none”, перекрыть его
   всплывающими элементами и т. д. Так вот, все эти способы поисковикам давно
   известны, и с ними давно, активно, и весьма успешно борются. Так что, если
   хотите получить бан вашего сайта в поисковиках — можете попробовать добавить
   на ваш сайт скрытый текст.
 * Самостоятельная накрутка поведенческого фактора. Возможно, вы слышали о
   специальных программах, позволяющих накручивать клики, и считаете, что Вам не
   составит сложности подкорректировать пользовательский фактор самостоятельно?
   Что ж, идея имеет право на жизнь. Вот только XSpider и nmap (программы для
   хакинга) может скачать любой желающий, но станет ли он от этого хакером? Где
   взять список пользователей, словарь перебора? Как составить правила
   изменений? Как понять выведенные в результате работы nmap’а числа 21, 80,
   3306? И что дальше с ними делать? К тому же эмуляция различных устройств
   подразумевает заход с разных IP адресов, пул которых надо где-то достать (на
   многих популярных форумах уже стоит защита от захода с TORа, так же часто
   парсятся публичные списки прокси, логично предположить, что популярные
   поисковики так же в силах сопоставить появившиеся «из воздуха» заходы на сайт
   с списками прокси и выходных нод Tor’a). Как правильно составить историю
   переходов, чтобы от неё был эффект? Даже если предположить, что у Вас всё
   удастся? Покупка пула адресов, железа, софта, затраты на настройку и
   обслуживание — и это всё ради нескольких кликов с машины в день? К тому же, с
   ограничениями на количество уникальных заходов по числу доступных адресов?
   Это просто не окупится. Дешевле купить клики.

продвижение-сайтов.su