Gazmarket59.ru

Газ Маркет 59
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Как закрыть счетчик nofollow

У многих начинающих вебмастеров часто возникает вопрос: «как закрыть ссылку от ?» И действительно, мне самому когда-то давно хотелось получить ответ на этот вопрос.

В сегодняшней статье я напишу, как я сам закрываю ссылки от индексации. Но перед тем, вы также можете прочитать статьи о том, и .

Если на сайте много , то это не есть хорошо. А когда эти линки ведут на плохие ресурсы, то это даже очень плохо. Поисковикам известен такой бизнес, как на ссылках и за это они жестоко наказывают. Конечно, если линки на вашем сайте ведут на полезные ресурсы в интернете и дополняют вашу статью, то ничего плохого в этом нет. Но, все равно, знать, как закрыть ссылку от индексации должен каждый. Итак, давайте приступим.

Для закрытия ее от индексации я использую атрибут Rel Nofollow, его прекрасно понимают поисковые системы, и ним можно легко закрыть любую ссылку. Делается это так:

Можно еще в начале его прописать, это не имеет никакого значения:

Если вы хотите закрыть ссылку от индексации, то просто скопируйте атрибут и вставьте через HTML редактор, как показано выше. Таким способом у меня закрыты на блоге почти все внешние линки, он работает, поэтому можете его смело использовать и не бояться:smile:.

Есть и другое мнение, что ссылку можно закрыть от индексации тегом noindex. На самом деле я бы не советовал использовать этот тег для закрытия внешних линков. Несколько дней назад я заметил, что в Яндекс вебмастере начались отображаться линки, которые закрыты тегом noindex. Если они там отображаются, значит Яндекс игнорирует этот тег. Выходит что так.

Тегом noindex можно закрыть часть , делается это очень просто:

Как проверить, что ссылка закрыта от индексации?
Для этого дела я использую прекрасный плагин для браузеров RDS bar. Он хорош тем, что достаточно посмотреть на ссылку, и можно понять, она закрытая от индексации или нет. Плагин подсвечивает открытую ссылку красной пунктирной рамкой. Вот скриншот, где сразу три ссылки открыты для индексации:

Цвет рамки вы можете изменить в настройках расширения. О том, я уже писал.

Ну и второй способ, менее удобный, это посмотреть HTML код ссылки. Для этого необходимо кликнуть правой кнопкой мыши по ссылке и выбрать пункт «Просмотр кода элемента»:

Это в Google Chrome так, а в других браузерах может писать «Исследовать элемент» или «Проинспектировать элемент». Почти всегда нужно выбрать последний пункт. И вот, что мы видим:

На этом все на сегодня. Обязательно закрывайте внешние линки атрибутом . Удачи вам, друзья!

Смотрите: если у Вас в той же статье будет к примеру 2 ссылки, одна из которых ведет на site1.ru, а другая на site2.ru, то в таком случае вес им будет передаваться по 0.5 (это грубое значение, привел Вам пример, чтобы Вы поняли. На самом деле вес ссылки зависит от многих факторов: релевантность , использование ключевых слов , ссылка расположена ближе к началу документа или в конце и т.п.).

Именно поэтому, следует закрыть внешние ссылки, то есть для того, чтобы вес Вашей страницы никуда не “утекал”, а оставался на Вашем же блоге, что сильно поможет Вам при продвижении. Также, если Вас интересует продажа постовых (вернее заработок на нем), то заказчики требуют, чтобы количество внешних ссылок не превышал числа n (обычно они хотят, чтобы на странице было не более 4-7 внешних ссылок). К примеру, если на странице очень многих исходящих внешних ссылок, то вес каждой ссылки будет мизерным, то есть те сайты, которые получили ссылки с этой страницы получат очень маленький (а может даже и отрицательный) эффект.

Noindex

Тег noindex используется, чтобы запретить индексацию какой-то определенной части текста. Следует помнить, что ссылки и изображения этот тег от поисковиков не закрывает. Если все-таки попытаться закрыть этим тегом анкор со ссылкой, то под индексацию не попадет только анкор (словосочетание), а сама ссылка однозначно попадает в индекс.

Noindex запрещает индексацию части кода, находящуюся между открывающим и закрывающим тегами. Вот пример:

Этот текст Яндекс не индексирует

Естественно, его не стоит путать с мета-тегом ноиндекс, который прописывается вначале страницы, они имеют различные задачи. Если взять мета-тег , то он запрещает индексирование всей страницы и переход по ссылкам. Этот запрет можно также прописать в файле robots.txt и такие страницы поисковыми роботами не будут учтены.

Валидный noindex

Некоторые HTML-редакторы noindex не воспринимают, поскольку он не является валидным. К примеру, в WordPress визуальный редактор его попросту удаляет. Но валидность тегу все же придать можно:

Текст закрыт валидным ноиндекс

Если в HTML-редакторе прописать тег в такой форме, то он будет абсолютно валиден и можно не бояться, что он исчезнет. Тег noindex воспринимает только поисковый бот Яндекса, робот Гугла на него абсолютно не реагирует.

Некоторые оптимизаторы допускают ошибку, когда советуют закрыть все ссылки такими тегами noindex и nofollow, но об этом будет рассказано ниже. Что касается работы тега ноиндекс, то она безотказна. Абсолютно вся заключенная в этих тегах информация в индекс не попадает. Но некоторые вебмастера утверждают, что иногда все же текст внутри этих тегов индексируется ботами – да, действительно такое случается.

Читайте так же:
Счетчики с групповым переносом

А это все потому, что Yandex изначально индексирует полностью весь html-код страницы, даже находящийся внутри noindex, но затем происходит фильтрация. Поэтому вначале действительно проиндексирована вся страница, но через некоторое время html-код срабатывает и тест, заключенный в этот тег «вылетает» из индексации.

Можно даже не соблюдать вложенность тега noindex – он все равно сработает (об этом рассказывается в справочной Яндекса). Не забывайте, используя, открывающий в конце исключаемого текста поставить закрывающий , а то весь текст, идущий после тега не проиндексируется.

Более 50% вебмастеров неправильно закрывают дубли страниц сайта. Как это делать правильно

Привет, друзья! По своей статистике я определил, что больше половины вебмастеров и оптимизаторов не совсем корректно закрывают от индексации дубли страниц. Итог — более долгое нахождение мусорных документов в выдаче. Как вариант — страницы в принципе остаются проиндексированными (не удается удалить).

Ниже я укажу, какие основные ошибки совершаются при попытке удаления дублей, а также разберу правильные методы запрета для популярных типов документов.

Я не буду останавливаться на вопросах: «Почему дубли — это плохо?» и «Как их искать?». Ответы на них вы можете прочитать в посте «Последствия возникновения и поиск дублированного контента». Сегодня акцентируется внимание на корректности того или иного способа для определенных видов страниц.

Ошибки при составлении правил для запрета индексирования

Все мы люди и можем совершать ошибки. Благо в данной теме обычно они не является критичными . Я выделил 4 основные причины, по которым встречаются некорректности.

  1. Использование сразу несколько способов закрытия. Иногда встречается, что вебмастер закрыл страницу в robots.txt, добавил в head meta name=»robots», а ниже, для пущей надежности rel=»canonical». Когда документ запрещен в роботсе, то поисковый паук не сможет просканировать его содержимое.
  2. Использование только одного метода — robots.txt. Если лет 5-7 назад это был практически единственный способ для удаления дублей, то сейчас он не является самым эффективным и универсальным.
  3. Когда правила, по которым запрещаются страницы, являются более общими и затрагивают нормальные документы. На мой взгляд, лучше написать 2 частных правила для конкретных параметров, чем одно общее, которое потенциально может затронуть качественный контент.
  4. Использование некорректного метода, который не подходит для данного типа документов (например, редирект для сортировок).

Не могу сказать, что если ваш оптимизатор использует только robots, то его стоит сразу уволить. Многое зависит от ресурсов и особенностей их индексирования. Методы запрета необходимо выбирать, исходя непосредственно из нюансов проекта.

Перехожу непосредственно к корректным способам, которые позволят удалить из поиска дубли и «мусор». Методы расставлены в порядке приоритета (1 — самый приоритетный).

1. Удаление

Если это возможно, в первую очередь, нужно удалить ненужные документы. Нет материала, значит ничего не надо запрещать . Это могут быть:

  1. категории интернет-магазина без товаров, которые не будут возобновляться;
  2. система тегов. Исключение — страницы меток, оформленные должным образом: действительно, интересны посетителям, имеют качественный title, description, небольшое описание. Другими словами, не просто список связанных материалов, а по-настоящему полноценная страница.
  3. Бесконечно вложенные URL. Это когда в урл можно добавлять бесконечное (или конечное) количество вложений. Например, документ site.ru/post/ может быть доступен по site.ru/post/post/post/. Запрет создания подобной структуры необходимо решать на уровне сервера и/или CMS (они должны отдавать 404-ошибку).

2. 301-редирект

Весь «мусор», который нельзя удалить нужно перенаправлять на основные документы. Для этого необходимо использовать 301-редирект. Каким типам страниц подходит данный метод?

  1. www и без www;
  2. со слешем на конце или без;
  3. фиды от RSS;
  4. Урлы с параметрами, не меняющие контент;
  5. аттачи (прикрепленные файлы);
  6. товары, доступные по разным URL (обычно из-за того, что находятся в разных категориях);
  7. дубли главной: site.ru/index.php, domen.ru/home.html и так далее;
  8. версия для печати (если ссылка на нее есть только в коде);
  9. первая страница пагинации. Дело в том, некоторые CMS создают дубли по URL site.ru/category/ и site.ru/category/page/1/ . То есть контент первой страницы пагинации обычно соответствует содержанию категории, но URL у них получаются разные.

3. Мета-тег meta name=»robots»

Когда документ нельзя удалить или перенаправить, в работу должен включаться именно мета-тег meta name=»robots», а не столь популярный robots.txt . Эти слова подтверждаются на практике — мой эксперимент по скорости удаления сайтов из индекса, а также в теории (ниже скриншот из справки Google).

Данный метод подходит для страниц:

  1. сортировки (по цене, популярности и так далее);
  2. пагинации;
  3. с параметрами (когда меняется контент);
  4. фильтров (в случае, когда они не оформлены «качественным» образом, по типу тегов: выше писал об этом);
  5. версии для печати;
  6. CMS и дополнений (плагинов, хуков);
  7. поиска;
  8. профилей пользователей;
  9. мобильной версии, расположенных на поддомене.
Читайте так же:
Как сбросить счетчик картриджа samsung

В общем, meta name=»robots» должен использоваться во всех случаях, когда страницы не желательны для индекса поисковых систем, но желательны для посетителей. В данном пункте есть 2 уточнения:

1) Страницы, в которые добавлен этот мета-тег, не должны быть закрыты от индексации в robots.txt.

2) На многих сайтах некоторые материалы доступны только по одному пути. Например, карточки товаров доступны только со страниц пагинаций в категориях (sitemap не в счет). Если использовать стандартный запрещающий код:

то поисковому роботу будет сложнее добраться до карточек. Здесь необходимо указывать атрибут follow:

В таком случае поисковый паук не будет включать документ в индекс, но будет ходить по внутренним ссылкам и индексировать контент, находящимся за ними.

4. Атрибут rel=»canonical» элемента link

Если по каким-то причинам использование meta name robots невозможно, то на помощь приходит известный атрибут rel=»canonical». Он помогает указать индексирующему роботу основную (каноническую) страницу. Для этого на неканонических документах в рамках тега head необходимо указать следующий код с указанием URL канонического документа.

Данный атрибут менее предпочтителен, так как поисковые алгоритмы берут его в расчет в качестве только лишь рекомендательного (поэтому meta name=»robots» использовать приоритетнее). Именно поэтому, когда я тестировал AMP-страницы в блоге, они-то появлялись, то пропадали из индекса Яндекса.

Атрибут может подойти для запрета индексирования следующих типов страниц:

  1. сортировки;
  2. AMP;
  3. имеющие параметры в URL;
  4. пагинации (в качестве канонической указывается первая или основная: например, категория);
  5. версии для печати.

5. Robots.txt

Ранее самый популярный способ запрета индексации оказался в моем рейтинге лишь на 5-й позиции . Он по-прежнему хорошо работает в Яндекс, но неважно в Google. В силу своей неуниверсальности он и оказался на данной позиции.

Что-либо запрещать в robots.txt стоит тогда, когда все предыдущие методики были реализованы, но остался «мусор», который запретить не получилось. Обычно на «закуску» остаются страницы:

  1. с параметрами;
  2. CMS и плагинов;
  3. AMP (только для робота Яндекса до момента его поддержки данного формата);
  4. мобильной версии на отдельном поддомене (полный запрет + указание host основного проекта).

6. Ajax

Иногда необходимо закрыть от индексации не всю страницу, а только ее часть. В этом и поможет Ajax. Например, я уже давно закрывал в блоге сайдбар и комментарии. Поисковые технологии не стоят на месте. Google заявлял, что он научился индексировать ajax, но мой сайдбар по-прежнему отсутствует в сохраненных копиях как Гугла, так и Яндекса. Можно считать эту технологию на данный момент вполне рабочей .

Использовать Ajax можно для больших сквозных элементов: меню, повторяющийся текст. Прежде чем применять данную технологию, необходимо взвесить все «за» и «против». Так, к примеру, удалив из индекса основное меню сайта, можно лишиться веса на категориях.

Отдельного внимания заслуживает связка Ajax+JQuery. Она отлично прячет от поисковиков ссылки (как внутренние, так и внешние). Для пользователей линки показываются как обычные, а в коде они оформляются в теге span (вместо a), то есть просто текстом.

7. Noindex и rel=»nofollow»

Данные теги также хорошо всем известны. Я их объединил в один пункт.

1) (валидный вариант ) понимает только Яндекс. Предназначение — закрытие служебных участков текста. Если в поисковой выдаче зеркала Рунета в сниппетах показывается контент, например, из участков меню, то их стоит «обернуть» в noindex.

Сейчас тег активно используют в борьбе с алгоритмом Баден-Баден. В большинстве других ситуациях он малопригоден и не универсален. Некоторые применяют noindex, чтобы закрыть внешние ссылки, но подобное, конечно, не совсем корректно. Для этого существует следующий тег.

2) Атрибут rel=»nofollow» элемента a. Данный тег добавляется к ссылкам, чтобы они не учитывались поисковыми системами.

Основная ошибка вебмастеров — применение nofollow для внутренних линков. Я рекомендую применять атрибут только для исходящих линков.

8. Параметры URL, X-Robots-Tag и rel=»alternate»

Менее популярные варианты. Но раз у меня обзор всех методов, то я их решил включить .

1) Настройка индексирования параметров URL в Google Search Console. Если у вас проект с большим количеством параметров в урлах (интернет-магазин, форум), то «Гугл.Вебмастер» предоставляет возможность настройки их индексирования.

Новичкам я бы рекомендовал здесь ничего не трогать, а опытным вебмастерам и оптимизаторам, как минимум, проверить параметры и статус их индексирования.

2) X-Robots-Tag — своеобразный серверный аналог meta name=»robots». Правила использования такие же, только тег является http-заголовком (отдается при ответе сервера).

3) rel=»alternate» — данный тег рекомендует использовать Яндекс для мобильных страниц, которые расположены на поддомене. В нем необходимо указать URL полной версии документа. На самом деле, я бы не советовал использовать мобильную версию проекта на отдельном поддомене. На мой взгляд, с таким вариантом больше проблем. Адаптивный дизайн будет куда лучше .

На сегодня все! Теперь вы знаете, что к популярному robots.txt не нужно обращаться в первую очередь. Сначала нужно удалить мусорный контент, затем настроить 301-редиректы, указать для дублей meta name=»robots» или rel=»canonical», а уже потом прописывать директивы в robots.txt.

Читайте так же:
Се 301 счетчик немига 40

Необходимо уточнить, что в посте я описывал популярные случаи, хотя в оптимизации сайтов не редко встречаются и уникальные или редкие ситуации. Если вам попадались такие, то опишите их в комментариях — будем вместе разбираться, каким образом их корректнее закрыть от индексации .

Может быть, вы знаете другие методы удаления дублей и «мусора». Буду рад вашим отзывам и дополнениям!

P.S. Чуть не забыл про конкурс к предыдущему посту . Спасибо всем приславшим свои варианты! Победитель — Жека.

Жду номер R-кошелька на почту (можно найти в контактах) с e-mail, который был указан в комментарии.

Как закрыть внешние ссылки и нужно ли это делать?

Привет посетителю моего блога !

Решила написать пост на тему закрытия внешних ссылок от индексации. Так как получаю много вопросов на эту тему. Из этого поста можно будет узнать

  • Зачем и как закрывать внешние ссылки
  • Все ли ссылки нужно закрывать
  • Сервисы для проверки на предмет закрытых и открытых ссылок

Зачем закрывать внешние ссылки?

Во первых с открытых внешниих ссылок перетекает вес со страницы нашего блога, а если блог ещё молодой, то это плохо отразится на поисковой оптимизации и ранжировании нашего ресурса. А если Вы задумаете зарабатывать на продаже ссылок, то этот вопрос вообще не обсуждается : Ссылки однозначно должны быть закрыты! Иначе никто не будет покупать ссылки с маловесного сайта.

А вот если ссылка с каждого поста идёт на главную страницу нашего блога, то этим мы повышаем её вес. Думаете я по своей прихоти стала писать почти что в каждой статье ссылку на главную странцу своего блога? Так что постарайтесь делать так же.

Как закрывать ссылки?

1.)В ручном режиме

То есть Вы прописываете для каждой ссылки

Выглядит это так:

Это ссылка без анкора, то есть просто ссылка, которая в тексте будет выглядеть вот так https://сайт.ru

А так она выглядит в режиме html:

Теперь о ссылке с анкором, она выглядит в тексте как гиперссылка, то есть идёт чаще всего подчёркнутый синий текст , при клике на который мы попадаем на другой сайт. И в режиме html она выглядит так :

2.)Прописать коды в файлы блога, но тогда мы закроем все внешние ссылки. А нужно ли это делать я напишу ниже.
3.)И наконец самый удобный способ, это применение плагина WP No External Links

Вы можете набрать его название прямо в админке блога и активировать его, или скачать здесь https://wordpress.org/extend/plugins/wp-noexternallinks/ и закачать в админку. Здесь Вы найдёте 3 способа установки плагинов. В чём же его удобство? Я расскажу об этом в процессе настройки плагина.

После его установки идём в Параметры и находим там название нового плагина, кликаем на него.

И попадаем в его настройки. Далее ставим галочки в нужных нам местах. Вот как это сделала я

Посмотрите какая красота, мы можем закрывать или открывать ссылки в нужных нам местах. Указывать какие ссылки не закрывать (обязательно напишите туда свой блог). Можем добавить тэг для того чтобы ссылка открывалась в новом окне и после её просмтора посетитель мог бы вернуться на наш сайт, так как его окно открыто.

Это вторая часть страница настроек плагина, просто первая не влезла. Проставляем галочки в нужных местах или делаем как у меня. И сохраняем изменения.

Но это ещё не всё. Теперь когда мы будем писать новый пост нас будут спрашивать применять закрытие ссылок к этому посту или нет. Это окно можно увидеть в самом низу админ панели

Что делать, если WP No External Links вдруг начинает плохо работать

Вот какие признаки его «поломки» были выявлены на моём блоге:

  • Вы не можете посмотреть как выглядит пост до публикации, и когда вы нажимаете Посмотреть изменения, у вас открывается просто белая страница
  • При переходе по внешней ссылке, он не сразу перенаправляет или перестаёт перенаправлять совсем.
  • Вы не можете посмотреть вторую страницу карты сайта

Вполне возможно, что есть ещё какие то глюки, но у меня проявились только эти. И как мне ни было жалко, пришлось принять меры.

Что же делать в этом случае?

  • А просто отключить его
  • Закрыть все ссылки вручную
  • Поставить плагин, для того, чтобы сайт, который указывают комментаторы открывался в новом окне, вот статья на эту тему https://chironova.ru/kak-sdelat-tak-chtob-na-bloge-kazhdaya-ssyilka-otkryivalas-v-novom-okne/
  • Ссылки, которые пишут в комментах, просто удалять

Каждую ли ссылку нужно закрывать?

Нет, все внешние ссылки закрывать нельзя иначе поисковики расценят блог как мёртвый. Но ссылаться нужно только на качественные ресурсы. Например Вы «отправили» посетителя на сайт и он там долго задержался. (Хитрые поисковики фиксируют и это.)

Значит Вы хороший и авторитетный вебмастер для роботов, так как желаете добра своим посетителям! А не отправляете их на спам-ресурсы. И блог Ваш полезный! А если посетитель пошёл на сайт, который например попал под АГС и имеет плохую репутацию, то репутация Вашего блога так же неизбежно будет падать…

Читайте так же:
Счетчики расходомеры для бензина

Не забывайте, что нужно ссылаться на сайты обязательно схожие с Вашим ресурсом по тематике. Или авторитетные сайты.

А теперь о ресурсах, на которых можно проверить — закрыты внешние ссылки или нет

Во первых это расширение RDS бар, о котором я уже писала здесь. Он подсвечивает открытые ссылки, или обводит их красным пунктиром, в зависимости от того как вы его настроите.

Закрытые ссылки вы увидите перечёркнутыми или обведённые чёрным пунктиром. Конечно, если установите его.

https://www.dinews.ru/seo/ здесь Вы не только узнаете о не закрытых внешних ссылках, а ещё и много всего интересного. Узнаете какие мета тэги и заголовки используются на Вашем сайте (хотя Вы это итак знаете).

Или можно нажать на кнопочку Плагиат и посмотерть копируют Ваши статьи или нет. Я нашла одну, но со ссылкой на мой блог, что очень радует!

https://be1.ru/stat/ на этом сервисе помимо внешних открытых ссылок Вам поведают какие страницы закрыты тэгом noindex, а так же наиболее часто встречающиеся слова и фразы.

Итак, в статье мы обсудили тему закрытия ссылок:

  • Для чего их закрывать
  • Как удобнее их закрыть
  • Какими ресурсами пользоваться для того чтобы узнать какие ссылки у нас не закрыты и что интересненького о своём блоге можно ещё узнать на этих ресурсах

Почему noindex и nofollow не закрывают ссылки от индексации

Всё дело в том, что алгоритмы поисковых систем постоянно совершенствуются и держатся в тайне, и некогда работающие методы закрытия ссылок от индексации через noindex и nofollow , сегодня индексируются поисковиками. Гугл уже точно научился игнорировать подобные запреты. Яндекс тоже не заставит себя долго ждать. И многие владельцы сайтов и блогов до сих пор уверены, что их исходящие ссылки надёжно закрыты, а на самом деле это всё равно, что пытаться удержать воду в сите.

Вот посмотрите пример моего молодого блога, на котором до недавнего времени тоже все ссылки были закрыты.

Исходящие ссылки моего блога

Как закрыть внешние ссылки от индексации

Доброго времени суток, дорогие дамы и господа, хотел написать про «Xenu» это такая программа, которая вычисляет все внутренние ссылки, внешние, битые ссылки и некоторые дополнительные вещи. Статья получилась бы очень длинной и на это нужно два три дня для её написания, так как я ещё сам в ней не разобрался, а статью уже срочно нужно писать, так как уже неделя не выходит статья. А эта статья выйдет не менее интересной и полезной, но краткой. Данная статья поможет Вам избавиться от потери веса вашего детища, а именно проставляя тег «Rel Nofollow», в этой статье вы поймете, как закрыть внешние ссылки от индексации. Закрытие от индексации внешних ссылок важный фрагмент в SEO, так как вы не будете терять вес со внешними ссылками, которые Вы проставляете для удобства перехода читателям, в нужную страницу/сайта. Итак, дорогие читатели ближе к теме.

В этой статье вы узнаете ТРИ плагина для такого дела:

  • №1 Первый плагин «Nofollow for external link«, данный плагин для WordPressa подставляет тег Nofollow в автоматическом формате. Подробнее смотрите чуть ниже;
  • №2 Второй плагин: закрытие от индексации внешних ссылок у нас будет под названием Rel Nofollow Checkbox, этот плагин работает в ручном режиме;
  • И третье место занимает у нас Theme Authenticity Checker (TAC), данный парень поможет удалить ссылки с самой темы, подробнее смотрите ниже.

Чем будет полезно проставления тега Nofollow

  1. Самое первое назначение, сделать так, чтобы вес вашего детища не передавался на разные системы, партнерские программы и тому подобное, а оставался у вас этот вес, который Вы так тщательно наедали);
  2. Второе и не менее важное в наше время, это обезопасить себя од поисковых фильтров, которые мы можем получить за спам ссылок.

Nofollow for external link — автоматизированный режим

Так что мы оберегаемся од этих недоброжелательных вещей, которые могут наш сайт просто погубить, а тегом Nofollow мы закрываем передачу веса и поисковики не считают это, как рекламой и не теряется ваш вес. Итак, с этим мы разобрались, идем далее.

Итак, первый плагин для WordPress, данный плагин делает закрытие от индексации внешних ссылок в автоматическом формате. Работа его касается только внешних ссылок, а внутренние страницы/записи он трогать не будет, в чем дополнительный и правильный плюс. Идем далее, как же нам посмотреть/проверить запись закрылась ли она или нет от передачи Вашего веса. Для этого нам нужно сделать несколько манипуляций, а именно, открываем запись со внешней ссылкой, потом жмем правой кнопкой компьютерной мишки на исходящую ссылку «не внутреннею», и жмем на ссылку с названием «просмотреть код» она будет самая нижняя в этом списке, смотрите ниже на изображение.

Читайте так же:
Взимание платы при установки общедомовых счетчиков

Как видим по изображению выше, что тег Nofollow был успешно проставлен, и итог у нас такой, что вес страницы не будет передаваться другому сайту. Но можно сделать исключение, то есть чтобы плагин не действовал на указанные внешние ссылки, это может быть полезно, когда Вы продаете ссылки на различных биржах таких, как GoGetLinks, на этот случай идем на такие ссылки «настройки» и потом на «Nofollow external».

Итак, с первым плагином вроде бы все понятно, идем до следующего, который у нас будет, как ручной…

Rel Nofollow Checkbox — ручной режим

Далее у нас по списку идет плагин Rel Nofollow Checkbox, этот плагин наподобие первого плагина, но данный плагин считается ручным. А именно мы в ручном формате ставим галочку ставить ли тег Nofollow или нет, выше изображение именно од этого плагина. Плюс данного плагина в том, что если Вы его деактивируете, для того чтобы не кушал вашу оперативную память на хостинге, то те ссылки и будут показываться закрытыми, а с первым плагином такие вещи не прокатят.

Theme Authenticity Checker (TAC) — плагин покажет скрытые ссылки в теме

А данный плагин показывает есть ли скрытые ссылки или нет, и дает возможность узнать где они спрятанные, пример смотрите в изображениях ниже, как перейти на установленный плагин.

При переходе вы можете увидеть такую картину, если отражается зеленый цвет и присутствуют ссылки, то это ещё нормально они не содержат вредоносного кода, А если отображаются с окраской в розовый цвет, это означает что в теме опасные скрытые коды и закодированные ссылки од такой темы лучше всего вообще отказаться.

Если вам плохо видно содержание картинки, тогда щёлкните на изображения (рисунок откроется в новой вкладке).

Итак, приступаем к поиску одаренных ссылок для этого используем файловый менеджер Total Commander или какой-то другой файловый менеджер, переходим по таким ссылкам wp-public_html/wp-content/themes/название-темы у меня первый код оказался в footer, и таким способом ищем другой код в этом же месте или же. Как искать код? Нажмите вместе такую комбинацию, как «ctr f» откроется окошко и туда вставляем предоставленный код, который хотите убрать, найденный код подсвечиваться, удаляем и закрываем. Если Вы не работали с Total Commander или Notepad++, тогда Вам придется подучиться. Я приложил видео в котором Вы сможете увидеть как подключиться к FTP.

Заключение: как закрыть внешние ссылки от индексации

Я надеюсь Вы поняли, что закрытие от индексации внешних ссылок Вы убережете свое детище от заспамленности и потере веса. Если Вам эта статья была полезной, то могу порекомендовать другую статью, где я собрал другие полезные статьи для анализа сайта.

Это видео взято с этого канала

  • Следующая публикация Подписная страница сайта Planeta-Zarabotka.Ru
  • Предыдущая публикация Проверка ключевых слов и оптимизация статьи под ключи

Webcraftic Clearfy ускоряем, оптимизируем и защищаем сайт

Автор: Viktor · Published 02.05.2019 · Last modified 29.11.2020

Топовая подборка Моих инструментов для ведения сайта

Автор: Viktor · Published 08.01.2019 · Last modified 23.01.2021

Защищено: Где брать уникальный и тематический текст/контент/статьи для своих сайтов*

Автор: Viktor · Published 24.03.2021 · Last modified 24.04.2021

комментария 2

  • Комментарии 2
  • Пингбэки 0

Отличная статья, лично для меня очень кстати

Я рад что помог Вам в этом вопросе, если возникнут какие-то вопросы, то обращайтесь (рад помочь).

Использование nofollow

Использовать атрибут nofollow нужно в том случае, если нет необходимости в передаче веса со ссылающегося сайта на тот web-ресурс, на который ведет ссылка. Поэтому тег используем, чтобы:

  • не передавать вес по ссылкам, ведущим на «плохой» сайт с точки зрения поисковиков или просто какой-либо «левый» сайт, ничего не значащий для вас;
  • закрыть от передачи веса ссылку на нетематический вашему сайт — такая ссылка нежелательна;
  • перераспределять вес между ссылками на странице (полезно, если вы обмениваетесь постовыми или продаете ссылки с сайта через биржи);
  • уменьшить количество исходящих со страницы ссылок – это делается в том случае, если внешних или внутренних ссылок на странице слишком много;
  • не отдавать вес на ссылку, ведущую на мегапопулярный ресурс (яндекс, гугл, subscrube и все сайты, тиц которых очень большой);
  • закрыть ссылки в комментариях — передавать вес по ним не нужно (но только, если ваш блог не dofollow).

Основные выводы

Использование одного из вышеупомянутых элементов (или обоих сразу) зависит от условий, которые преследуются (сокрытие части текста, ссылки или всей страницы при использовании с мета-тегом robots).

Если нужно скрыть от робота Яндекса отдельный текст, noindex это сделает, но когда закрывается ссылка, noindex не поможет. В этом случае следует выбрать атрибут rel=«nofollow», не скрывающий анкор ссылки.

Теперь, когда Вы разобрались с особенностями применения и rel=«nofollow», не забудьте поделиться этой важной информацией с теми, кто может в ней нуждаться!

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector