Распространенные упущения, которые могут помешать Google сканировать ваш контент [Video]


Оптимизаторы поисковых систем и разработчики не должны чрезмерно изобретать обходные пути, когда базовые и надежные решения уже существуют, – говорит Мартин Сплитт в этом ролике из Live with Search Engine Land.

«Я не знаю, почему люди изобретают велосипед», – сказал Мартин Сплитт, защитник поискового разработчика Google, во время нашего сеанс сканирования и индексации Live with Search Engine Land. По мере того, как разрабатывается все больше и больше методов для предоставления оптимизаторам поисковых систем и веб-мастеров гибких решений существующих проблем, Splitt опасается, что использование этих обходных путей вместо того, чтобы придерживаться основ, может в конечном итоге повредить органической видимости сайта.

«У нас есть рабочий механизм для ссылок. . . Итак, почему мы пытаемся воссоздать нечто худшее, чем то, что у нас уже есть? » – сказал Сплитт, выразив разочарование по поводу того, что некоторые разработчики и оптимизаторы поисковых систем отклоняются от стандартной ссылки HTML в пользу более изящных решений, таких как использование кнопок в качестве ссылок и отказ от атрибута href для обработчиков onclick. Эти методы могут создать проблемы для поисковых роботов, что увеличивает вероятность того, что они пропустят ваши ссылки.

Другая распространенная проблема возникает, когда оптимизаторы поисковых систем и разработчики блокируют доступ поисковых систем к определенному контенту с помощью файла robots.txt, по-прежнему ожидая, что их API JavaScript будет направлять поискового робота. «Когда вы блокируете нам загрузку, мы не видим никакого вашего контента, поэтому ваш веб-сайт, насколько нам известно, пуст», – сказал Сплитт, добавив: «И я не знаю почему, поскольку поиск Engine, оставлю ли я в своем индексе пустой веб-сайт ».

Почему нам не все равно. «Часто люди сталкиваются с относительно простой проблемой, а затем изо всех сил разрабатывают решение, которое кажется работающим, но в некоторых случаях на самом деле дает сбой, и эти случаи обычно связаны с поисковыми роботами», – сказал Сплитт. Когда уже существуют простые, общепринятые методы, владельцы сайтов должны выбрать эти решения, чтобы их страницы можно было сканировать, а затем индексировать и оценивать. Чем сложнее обходной путь, тем выше вероятность того, что этот метод приведет к непредвиденным проблемам в будущем.

Хотите больше жить с Search Engine Land? Получи это здесь: