Новый алгоритм Яндекса выкидывает из индекса качественные сайты?. wb0.ru - Все для веб-мастера, on-line сервисыНовый алгоритм Яндекса выкидывает из индекса качественные сайты?На 3% в начале марта сократилось количество страниц, проиндексированных Яндексом. Такие данные приводит сервис SEO-Analytics. В комментарии для SearchEngines.ru руководитель группы разработки робота компании Яндекс Роман Грачёв говорит: «Сокращение количества проиндексированных Яндексом страниц связано с внедрением нового алгоритма удаления дублей. Это внедрение позволит показывать на выдаче больше разнообразного контента».Внедрение нового алгоритма оптимизаторы обсуждают и на форуме SearchEngines.ru. В алгоритме удаления дублей видят как плюсы, так и минусы. Естественно, что новый алгоритм поможет очистить сеть, но с другой стороны, могут пострадать сайты с оригинальным контентом. И если пока это была только пробная зачистка, то в будущем можно ждать массовых удалений. Александр Шокуров, руководитель отдела поисковой рекламы агентства интернет-рекламы i-Media, пока не делает прогнозов о количестве сайтов, которые могут выпасть из индекса поисковой системы Яндекс. «Выводы о новом алгоритме Яндекса и его точности можно будет сделать в ближайшие 2-3 недели», - считает Александр. Точность определения поисковой системой оригинального и дублированнго контента - вопрос, который беспокоит оптимизаторов больше всего. Специалисты на форуме не верят, что Яндекс сможет точно определить первоисточник: «Вся проблема в том, что Яндекс не может определить сайт близкий к ГС от сайта далекого от ГС». Точность поисковой системы форумчане оценивают примерно в 15-25%. Уже в первые дни внедрения алгоритма удаления дублей из индекса выскочило много сайтов с уникальным контентом. Большинство сайтов дублируют контент, чтобы зарегистрироваться в биржах ссылок. «После введения нового алгоритма Яндекса ссылочные биржи понесут серьезные потери; но, думаю, восстановить потери в очередной раз для них не составит труда», - говорит Александр Шокуров. 10.03.09 seonews.ru
|