августа 27, 2006

 

SEO-копирайтинг и его задачи

SEO-копирайтинг. Тексты для поисковой оптимизации веб сайта
SEO-копирайтинг и его задачи

Как найти и отличить ваш сайт среди многих других? Вы заказали оптимизацию ресурса в поисковых системах, технические специалисты вывели сайт в первую десятку, но было бы несправедливо утверждать, что отлаженные механизмы гарантируют ресурсу постоянный интерес веб-аудитории.

SEO (Search Engines Optimization) — оптимизация для поисковых машин, включает в себя целый комплекс не только технических, но и творческих работ. Последние заключаются в создании уникального контента (оригинального текста, написанного специально для вашего сайта).

Однако «просто» текст (даже уникальный) выполняет только одну или несколько из следующих функций — информационную, рекламную, просветительскую, и так далее. SEO-текст «убивает» двух зайцев: помимо его непосредственного назначения — привлечения посетителей, в содержание искусно вплетены те слова и словосочетания, под которые оптимизируется ресурс в поисковых системах.

И, если технические работы по оптимизации вашего сайта для большинства посетителей остаются невидимыми, то текстовая часть ресурса — это его витрина и своеобразная приманка для тех же посетителей в зависимости от целей, которые вы преследуете. Следовательно, создание SEO-текста — процесс полифонический, многогранный, который требует не только определенных литературных и редакторских навыков, но и знания тонкостей SEO-сервиса.

Ну а весь «фокус» профессионального SEO-копирайтинга заключается в том, чтобы у ваших посетителей и ваших читателей и подозрения не возникло, что текст написан не только для них, но и для продвижения в поисковых системах.
Секреты SEO-копирайтинга

Творческий процесс создания SEO-текста регламентировать трудно. Но, с точки зрения оптимизации, существует несколько обязательных требований к такому тексту, соблюдение которых гарантирует его эффективность, даже учитывая то, что механизмы ранжирования поисковых систем могут изменяться. При этом, в зависимости от настроек поисковой системы, ресурс, содержащий SEO-текст, может «соскакивать» на более высокие или низкие позиции. Но, как правило, колебания незначительны, если сайт наполнен грамотным контентом, релевантность которого соответствует запросам поисковых машин.


Грамотный SEO-текст — это:

1.Легкий стиль и внятное изложение;
2.Объем в пределах 500-1000 знаков на страницу;
3.Структура, состоящая из небольших абзацев;
4.Плотность ключевых слов порядка 5-6 процентов (5-6 ключевых сочетаний на сто слов текста);
5.Выделение ключевых слов полужирным шрифтом;
6.Наличие интересного, захватывающего «сниппета» (краткого описания, которое выдает поисковая машина);
7.Наличие в тексте заголовков и подзаголовков H2, H3, и т.д.;
8. Наличие гиперссылок на другие страницы, содержащие ключевые слова.

августа 22, 2006

 

Обеспечьте сайту бренд

В оффлайновом мире (в отличие от онлайнового) значительная доля рынка принадлежит известным брендовым компаниям.

В действительности, доля рынка не определяется качеством сервиса или уникальностью предлагаемого продукта. Вопрос за брендом.

Неужели немецкий концерн Даймлер-Крайслер выпускает лучшие автомобили в мире? Неужели Nokia производит лучшие телефоны? Если это действительно так, то где гарантия того, что и завтра они выпустят продукцию ничуть не хуже? Эту гарантию предоставляет бренд.

В Интернете Google сумел завоевать бренд лучшей поисковой системы. За словом Google даже признали право на существование в английском словаре.
Надежный и известный бренд всегда будет иметь более высокие позиции, чем качественный продукт, не созданный под эгидой бренда. В традиционном маркетинге, когда покупатель выбирает тот или иной продукт известного бренда, всегда присутствует альтернатива этому выбору (существует второй бренд, который составит данному бренду конкуренцию. Например, Coca-Cola и Pepsi). В онлайновом пространстве второго может и не быть.

Что Вы, как владелец сайта, можете сделать для создания собственного бренда? Как зарекомендовать свой сайт в кругу людей, редко расстающихся с компьютерной мышью?

Зачем потенциальному клиенту искать информацию о предоставляемых вами услугах в Google, когда он просто может ввести адрес вашего сайта в поисковую строку? Ведь в этом случае вас не будет беспокоить поток случайных посетителей. Каждый, кто будет заходить на ваш сайт, будет делать это вполне осознанно.
Поделимся некоторыми секретами эффективного брендирования сайта.

Что не следует делать

Зачастую встречаются сайты с довольно сложными и одновременно примитивными названиями, например: www.bestcureforfootdisease.com, www.foreigndirectinvestment.com. Проблема заключается в том, что такие типы доменных адресов слишком дороги, и некоторые «эксперты» в области интернет-маркетинга советует клиентам называть сайты обязательно в соответствии с тематикой бизнеса.

Однако именно такое общее название забывается легче всего. Возьмем, например, www.business.com. Посмотрев на доменное имя, можно уверенно рассуждать о тематике сайта, однако существует большое количество похожих названий (ebusiness.com, onlinebusiness.com). В связи с наличием данной проблемой о развитии бренда говорить не приходится, так как его будет слишком трудно распознать среди аналогичных.

Нужно сделать так!

Откажитесь от общего примитивного названия. Ведь компания Google не назвала свой сайт searchengine.com, компания Amazon не назвала сайт ebooks.com. Поэтому, выбирая имя для сайта, убедитесь, что оно легко произносится и пишется.

Не стоит превращаться в легкозабываемый сайт, полностью зависящий от поисковых систем. Выберите правильное имя для сайта, наполните сайт качественным контентом, оптимизируйте сайт и читайте далее…

При создании бренда для сайта важно занять свою нишу на рынке. Это позволит избежать конкуренции со стороны более крупных сайтов, особенно если вы представлены на пересыщенном рынке. В большинстве случаев, когда нет единственного в своем роде конкурента (например, такого, как Amazon на рынке электронных книг), данная стратегия срабатывает. При отсутствии явного лидера на рынке сайт, который сумеет создать бренд, без труда займет лидирующие позиции.

Проблема брендинга состоит не в том, чтобы прорваться на рынок, а в том, чтобы завладеть вниманием и уважением людей, в руках которых находится компьютерная мышь. Когда Google пришел на рынок поисковых систем, поисковики Lycos, Excite, Ask Jeeves, Alta Vista уже достаточно прочно там обосновались. Они являлись сильными брендами. Однако Google сумел вытеснить всех.

Yahoo был первым номером в каталогах, Amazon – первым по продажам онлайновых книг. Быть первым в определенной нише – большой плюс, быть первым брендовым сайтом – гораздо лучше. Единственный способ быть первым – скорость. Задержка с развитием бренда для сайта приведет к тому, что конкуренты вынудят вас стать полностью зависимыми от результатов выдачи поисковых систем. Тогда большая часть времени будет посвящена не совершенствованию сайтов, а изучению последних SEO новостей и технологий, зависимость от которых станет всеобъемлющей.

Целенаправленность

Ваш сайт должен иметь четкую направленность. От этого правила уклоняются многие сайты, стараясь расширить спектр услуг, предлагаемых сайтом.

Ассоциирование сайта с несколькими тематиками ущемит его репутацию. Если пользователь не будет знать, с чем ассоциировать ваш сайт, он в итоге перейдет к услугам поисковой системы, в этом случае ваше имя перестает работать на вас.

Реклама

Рекламные кампании способны сотворить чудо с видимостью сайта. Необходимо позиционировать себя как эксперта в определенной области. Например, если ваш сайт связан с программами, к которым открыт доступ, то бесплатные обучающие семинары окажут неоценимую помощь. Написание и размещение тематических статей в Интернете также положительно скажется на репутации вашего сайта.

Не будем отдельно останавливаться на рекламе PPC и аффилиат-программах, эффективность которых неоспорима.

Не допускайте полной зависимости от результатов выдачи поисковых систем. Работайте над именем, тогда необходимость оказаться в топе SERP сведется к минимуму.

августа 18, 2006

 

Seo. Задачи оптимизации сайта

Seo. Задачи оптимизации сайта.

Что это такое
Поисковую оптимизацию или SEO можно назвать искусством и наукой по оптимизации сайта, его дизайна и контента. Это долгосрочная работа с сайтом, направленная на улучшения качества информации, обеспечение ее максимальной полезности, достигнуть которую можно путем приведение контента в соответствие с потребностями целевой аудитории.

В настоящее время поисковая оптимизация становится все более популярным методом интерент-маркетинга. Ее основным аспектом выступают привлечение целевой аудитории (ЦА). Любая SEO-кампания имеет длительный результат, выражаемый в постоянном потоке заинтересованных посетителей.

Цели и Задачи SEO
Главной задачей SEO (также известная как раскрутка сайта) является повышение качества, объема, четкости и полезности контента сайта. Оптимизация сайта помогает сделать контент максимально релевантным, а составляющую его информацию - четкой и легко доступной для поисковых систем. Соответствие всем вышеперечисленным требованиям позволит сайту получить высокую оценку поисковиков, определяющим критерием которой является релевантность.

Как это происходит
Нельзя также забывать, что поисковая оптимизация – процесс, основанный на статистике, все законы выводятся на основе эмпирических знаний. Их профессиональное применение приведет контент сайта в нужное соответствие с требованиями поисковых систем. Из этого следует, что только использование услуг профессиональных интерент-маркетологов может гарантировать, что SEO-кампания не потерпит фиаско.

Что это дает
Для компаний, решивших не просто вести онлайн-бизнес, а добиться значительных результатов с помощью Интернет-ресурсов, поисковое продвижение должно иметь первостепенное значение. SEO представляет прекрасную возможность привлечь целевую аудиторию прямо на сайт, используя такие навигационные инструменты как поисковые системы.

Для представителей малого бизнеса, чей маркетинговый бюджет ограничен, поисковое продвижение может стать экономически выгодной альтернативой дорогостоящей оффлайн-рекламе (например, рекламным щитам). Для крупных компаний SEO становится все более необходимым в условиях интерактивного развития е-коммерции, т.к. число пользователей, прибегающих к помощи поисковых систем, чтобы купить или найти интересующий товар, увеличивается с каждым днем.

Заключение
Информация в современном мире – это самый дорогой товар, а полезная информация – бесценна. Полезную информацию о поисковом продвижении и SEO маркетинге найти не так-то и просто, понадобиться немало времени, чтобы выбрать из огромного количества источников то, что нужно. Мы предлагаем оптимальное решение – источник только полезной информации, где можно найти ответы на все вопросы о SEO.



августа 17, 2006

 

Матт Каттс держит слово

1. Апдейты на Sitemaps зависят от постраничного просмотра сайта?

Нет, постраничные просмотры не оказывают влияние апдейты. В Sitemaps присутствуют разные виды данных, которые могут быть факторами апдейтов. Матт Каттс перечислил пять из них, которые изменяются в разное время и с разной частотой (обычно в течение нескольких дней, а при внеплановых ситуациях в течение недель). Однако постраничные просмотры не являются фактором апдейтов.

2. Какие общие рекомендации Вы можете дать, чтобы улучшить видимость сайта в Google?

• Сайт должен быть легко доступным для поисковых роботов. Посмотрите на сайт глазами поисковой системы. «Вернитесь в 1994 и используйте текстовый браузер links», – говорит Матт. – Если весь сайт можно просмотреть, используя лишь текстовый браузер, значит все хорошо. Также неплохо сделать карту сайта.
• Оптимизируйте сайт. Контент должен быть полезным и интересным. Обдумайте, зачем кому-то будет нужно ссылаться на вас. Определите свою целевую аудиторию и работайте для ее привлечения.
• Нужна «приманка» (linkbait). Предложите что-либо вирусное, например, информационные письма, обучающие программы и т.д. Постарайтесь придумать что-либо отличное от других сайтов и зарегистрируйте свою новинку на сайтах социальных сетей.

3. Что может стать причиной использования сниппетов из DMOZ, если на странице уже есть надежный мета-тег description?

Матт Каттс затруднился ответить на этот вопрос и переадресовал его сотрудникам из Snippets Team (это не шутка). Главным образом, это имеет отношение к сниппетам, которые в большей степени релевантны запросу пользователя. Выбранный и продемонстрированный сниппет напрямую зависит от запроса. Если описание сайта из DMOZ для сниппета больше подходит введенному запросу, именно он будет продемонстрирован пользователю. Если вам не нравятся сниппеты из открытых директорий, используйте мета-тег "NOODP", тогда будет продемонстрирован мета-тег description вашей страницы.

4. Какие теги Google предпочитает больше полужирные (bold) или жирные (strong)?

Вероятно, что Google отдает немного больше предпочтения полужирным тегам, хотя оно настолько мало, что беспокоиться по этому поводу нет смысла. Матт Каттс рекомендовал использовать теги, которые больше подходят сайту и его пользователям.

5. Развейте мифы о большом количестве сайтов на одном сервере/ о сайтах с похожими IP-адресами/ о сайтах включенных в один и тот же javascript.

• Если вы обычный вебмастер, не волнуйтесь ни по одному из этих поводов.
• Если вы владелец нескольких сайтов (2-5) разной тематики, тоже можете не волноваться. Однако если у вас 2 000 сайтов вам нужно удостовериться в том, что у вас хватает контента для поддержания такого количества сайта (Матт Каттс считает, что его может не хватать).
• Многие используют javascript трекеры, однако и в этом случае для беспокойства нет причин. Вот, если у вас более 5 000 сайтов с поддержкой javascript, осуществляющей редирект, тогда стоит призадуматься о последствиях.

6. При запуске каждого нового сайта мы сталкиваемся с трудностями, …мы одновременно запускает миллионы страниц нового сайта…С чем это связанно? [этот вопрос задают уже не первый раз]

• На этот раз Каттс ответил на данный вопрос по-другому. Когда его спросили об этом на SES в Нью-Йорке, его ответ был следующим: «Не останавливайтесь, запускайте и ни о чем не беспокойтесь. Сайт пройдет тщательную проверку и все будет в порядке»
• Теперь Матт Каттс призывает владельцев сайтов с миллионами новых страниц быть как можно более осторожными. Он предлагает постепенно запускать меньшее количество страниц, например, по несколько тысяч.

7. В каком состоянии находится Google Images? Будет ли апдейт технологии индексации?

Матт Каттс заметил, что совсем недавно WebmasterWorld интересовал подобный вопрос. Он подтвердил, что на прошлых выходных был апдейт индекса, многие изменения остаются незамеченными для пользователя. Но они все-таки есть. Разработчики продолжают работать над улучшением Google Images.

8. Что на Ваш взгляд является более важным при разработке и поддержке сайта: оптимизация под поисковые системы или оптимизация под конечного пользователя?

• Важны оба компонента. Без них работа не будет успешной. Без SEO сайт будет тяжело найти, без оптимизации под конечного пользователя, у сайта не будет конверсии, не будет благодарных и постоянных пользователей/ покупателей.
• Умение заключается в одновременном сочетании обоих технологий. Суметь заинтересовать и пользователей, и поисковые системы в своем сайте. Удержать этот баланс значит преуспеть. В идеале, что хорошо пользователям, хорошо и поисковикам.

9. Не могли бы Вы назвать некоторые инструменты для определения спама? Мне бы хотелось контролировать свой сайт на предмет спама и иметь надежный способ определять конкурентов, использующих спам-медоды.

• У Google много инструментов, определяющих спам, но большинство из них недоступны за пределами поисковика.
• Анализатор сайтов от Yahoo демонстрирует обратные ссылки на каждой странице или каждом домене.
• Есть инструменты, демонстрирующие все, что находится на определенном IP-адресе. На виртуальном хосте можно найти огромное количество хороших сайтов, порой по одному IP находится несколько сайтов. Если один из них является спамом, вы сможете найти еще сайты того же владельца. Нужно быть осторожным, т.к. они не всегда принадлежат одному человеку.
• Карта сайта поможет выявить ошибки поискового робота и указать на проблемы, связанные с индексацией сайта.

10. Расскажите о чистоте кода (например, W3C). Информация о доступной работе будет в любом случае доставлена в главный алгоритм?

• Обычные люди пишут коды с ошибками. Матт цитирует статистику Эрика Брюэра, согласно которой 40% всех HTML страниц содержат синтаксические ошибки. Очевидно, что у поисковых систем нет возможности удалить 40% контента только потому, что не проверил правильность. Но есть и высококачественный контент (в основном прописанный вручную).
• Матт сказал, что если бы ему задали этот вопрос какое-то время назад, то он бы ответил так: «У нас нет больше сигнала, кроме тех, что в наших алгоритмах, и на это есть основание». Однако сейчас вся работа направлена на доступный поиск, каждый может посмотреть на это, используя невозможный сигнал. Прежде, чем сигнал используется для улучшения качества, он проходит тщательную проверку.
• Матт Каттс рекомендовал проверять правильность HTML-кодов, но это не первоочередная задача по работе с сайтом. Матт считает, что в первую очередь необходимо составить привлекательный контент сайта, а уже затем «расставлять все точки над i».




августа 14, 2006

 

Google поперхнулся невиданным количеством спама

Google поперхнулся невиданным количеством спама

На прошлой неделе в Сети появилась информация о том, что какому-то удачливому молдавскому спамеру удалось "скормить" Google 5 миллиардов бессмысленных страниц. Столь масштабная спам-атака на поисковик привела к техническим сбоям, в итоге в работе Google можно было заметить некоторые странности.
Вообще, как утверждают SEO-специалисты, существует немало способов "заспамить" лидера поискового рынка. Этот случай примечателен своими масштабами - 5 миллиардов страниц, как утверждается в блоге Джона Бэтла, было проиндексировано поисковиком в течение всего трех недель. Количество страниц действительно огромно, ведь два года назад вся база Google насчитывала меньше документов.
Спамер воспользовался особым отношением поисковика к субдоменам. Каждый из них рассматривается Google как отдельный сайт, поэтому для скорейшего индексирования понадобилось лишь создать внушительное количество субдоменов. Они оказались в базе Google намного быстрее, чем обычные страницы одного-единственного сайта.
К чести поисковика, он довольно быстро справился с проблемой, освободившись от "мусора". Как утверждает в комментариях к скандальному сообщению один из разработчиков Google, речь идет о сбое, в результате которого в выдаче оказалось большое количество субдоменов.
Между тем, можно встретить предположения о связи описанной проблемы с некорректной работой оператора site. Как известно, с помощью этого оператора можно получить представление о количестве страниц того или иного сайта, хранящихся в базе Google. Некоторые пользователи считают, что в последнее время запросы с оператором site выдают нереальные, завышенные цифры.
"Вебпланета" обратилась за комментариями к российским экспертам в области интернет-поиска.
Игорь Гуров, один из авторов рассылки "Продвижение сайтов. Профессиональные советы экспертов", признает этот случай исключительным по своим масштабам. "Заспамить Google можно, это бесспорно. Для этого даже не обязательно использовать субдомены, хотя с ними, возможно, будет эффективнее и быстрее. Но 5 миллиардов страниц… В первый раз такое встречаю, - заметил он. - Еще несколько месяцев назад многие начали замечать, что Google показывает больше страниц, нежели действительно есть на сайте (даже если это статика), особенно когда речь идет о тысячах и десятках тысяч страниц (Google мог показывать в разы, а то и на порядок большее число по оператору site)".
Сергей Петренко, руководитель проекта Searchengines.ru и директор компании "Яндекс.Украина", считает, что масштабы этой спам-атаки могут быть преувеличены: "Исходя из отзывов, которые я видел в обсуждениях этого случая, речь здесь, скорее, о сбое - робот Google запутался в индексируемых данных и при обновлении базы все это попало в основной поиск. Сейчас сложно судить, что именно сделал спамер и как это увидел робот, разумеется. Вряд ли там действительно есть или было 5 миллиардов страниц".

августа 13, 2006

 

Железная логика

Однажды дpовосек pубил деpево над pечкой и уpонил в нее топоp. Он заплакал от гоpя, но тут ему явился Господь и спpосил: "Что ты плачешь?" "Как же мне не плакать, ведь я уpонил в pечку топоp и не смогу больше заpабатывать на пpопитание моей семье". Тогда Господь достал из pечки золотой топоp и спpосил: "Это твой Топоp?"
"Hет, это не мой топоp", - ответил дpовосек.
Господь достал из pечки сеpебpяный топоp и спpосил: "Может, это твой топоp?"
"Hет, и это не мой топоp", - отвечал дpовосек.
Hаконец, Господь достал из pечки железный топоp.
"Да, это мой топоp", - обpадовался дpовосек.
"Я вижу ты честный человек и соблюдаешь мои заповеди, - сказал Господь, - возьми же себе в нагpаду все тpи топоpа".
Стал дpовосек жить-поживать в достатке, но тут к несчастью в pечку упала его жена. Он снова гоpько заплакал. И снова ему явился Господь и спpосил: "Что ты плачешь?"
"Как же мне не плакать, ведь в pечку упала моя жена".
Тогда Господь достал из pечки Дженифеp Лопес и спpосил: "Это твоя жена?" "Да, это моя жена", - pадостно ответил дpовосек. Господь pассеpдился:
"Ты солгал мне, как же так?"
"Видишь ли, о Господи, - ответил дpовосек, - тут вышло небольшое недоpазумение. Ответил бы я, что это не моя жена. Ты тогда достал бы из pечки Кэтpин Зета-Джонс, а я бы снова сказал, что она не моя жена. Тогда ты достал бы мою жену, и я бы сказал, что вот она и есть моя супpуга. Ты бы отдал мне всех тpоих, и что бы я стал с ними делать? Я бы не смог их всех пpокоpмить, и мы все четвеpо были бы очень несчастны".

 

Get Keyword Stats

Website traffic reports, website statistics, search engine optimization, and a free hit counter for improved google ranking

 

Яndex.Server — порядок на вашем веб-сервере

Яndex.Server — порядок на вашем веб-сервере

Как бы хорошо вы ни продумали структуру вашего веб-сервера, жизнь обычно богаче схемы. Сервер растет, его посетителям становится все сложнее и сложнее находить нужную информацию. Хождение по страничкам может стать столь долгим, что посетитель бросит cвое занятие, не дойдя до нужного места. Свободный поиск по всему содержанию, быстрая выдача результирующих документов, указание найденного в каждом тексте — может быть, это то, что нужно вам и вашему серверу?
Компания «Яндекс» предлагает вашему вниманию Яndex.Server — средство полнотекстового поиска информации на вашем веб-сервере или в локальной сети с учетом морфологии русского языка.
Вы можете легко настроить Яndex.Server на конкретные условия вашего сервера — указать, какие директории и типы файлов индексировать, а какие исключить, выбрать кодировку русского языка, указать способ получения документов (прямо из директории или через веб-сервер), перестраивать ли весь индекс при новом индексировании или организовать обновление и слияние.
Яndex.Server включает так называемого поискового робота — механизм, используемый поисковой системой Yandex.Ru, и позволяющий индексировать сайты не только в вашей локальной сети, а также результаты работы скриптов. Предполагается, что индексатор запускается регулярно, например каждой ночью, чтобы индекс всегда отражал текущее состояние веб-сервера.
Поиск работает с учетом морфологии русского и английского языков, например, если задан запрос «идти», то в результате поиска будут найдены ссылки на документы, содержащие слова «идти», «идет», «шел», «шла» и т. д. На запрос «окно» будет выдана информация, содержащая и слово «окон», а на запрос «отзывали» — документы, содержащие слово «отозвали».
Развитый поисковый интерфейс позволяет помимо стандартных логических операторов (И, ИЛИ, НЕ) задавать поиск по близости, то есть указывать расстояние между словами в запросе. При индексации учитываются имена собственные. Если в запросе слово написано строчными буквами, то поиск будет произведен без учета больших и маленьких букв (без совпадения регистра). Если первая буква в слове прописная, найдутся только те документы, где это слово написано с большой буквы.
Существует поиск в зонах (заголовках, ссылках, аннотациях) и по атрибутам (датам, ссылкам, именам). Возможно настроить HTML-зоны и атрибуты, по которым необходимо проводить индексирование и поиск. Можно организовать независимые поиски в различных разделах вашего сайта. Мощный язык запросов позволил реализовать естественно-языковый запрос — то есть возможность обращаться к поисковой машине на естественном русском (или английском) языке. Качество поиска обеспечивается тонким алгоритмом расчета релевантности.
Результатом поиска является список документов, упорядоченных по релевантности, которая учитывает не только количество найденного, но и контрастность слов (частотные характеристики) и расстояние между словами. Внутри документа выделены (подсвечены) слова, участвующие в запросе. С каждого такого слова можно перейти на следующее и на предыдущее. Можно сортировать результат поиска и по времени появления (обновления) страниц.
Помимо настраиваемой функциональности Яndex.Server дает возможность по вашему вкусу настроить дизайн поисковой страницы и результатов поиска, организовывать нестандартные запросы, которые облегчат пользователям навигацию по вашему
сайту.

августа 11, 2006

 

В июле Интернет стал больше на 4,4 млн хостов

Рост Интернета в июле 2006 г. побил все рекорды. Согласно предоставленной Netcraft статистике, в течении июля глобальная Сеть стала больше на 4,4 млн сайтов. Предыдущее достижение было зафиксировано в июне и равнялось 3,96 млн хостов. Общее число сайтов в Интернете выросло до 92,6 млн.
По мнению Netcraft, основная причина быстрого роста Сети – борьба между Microsoft и Google, по привлечению пользователей в блоги. За прошедший месяц Microsoft (Windows Live Spaces) добавил в Интернет около 858 тыс новых сайтов; для Google (Blogger) этот показатель равняется только 568 тыс.

 

Webalta открывает программу экспертного контроля выдачи


9 августа Webalta заявила о начале программы по привлечению оптимизаторов для борьбы с дорвеями. Цель программы – улучшить качество выдачи поискового сервиса и облегчить нахождение нужной информации по запросам. Оплата за участие в программе не предусмотрена. Предпочтение будет отдаваться участникам проекта, зарегистрированным на форумах Mastertalk.ru и Searchengines.ru.

Для участия в программе экспертам предлагается связаться с Webalta, после чего им будет выдан специальный адрес, где будут прописаны все правила и пожелания по работе с системой. Обнаружив в выдаче по своей тематике дорвеи, участники проекта могут сообщить об этом редакторам, которые в течение нескольких минут исключат нежелательный сайт из выдачи. Эксперты, чья репутация будет подтверждена в рамках проекта, получат возможность удалять поисковый спам из выдачи самостоятельно.
"Программа будет проводиться под контролем специалистов Webalta, – сообщила корреспонденту SEONEWS Ольга Аракелова, руководитель отдела PR и брендинга компании "Вебальта". – Только после определенного времени и подтвержденной (заслуженной) репутации можно будет полагаться на эксперта – тогда никаких нечестный действий с его стороны не будет".
Комплексная системы борьбы с дорвеями, разработку которой завершают специалисты Webalta, делится на две части: внутреннюю, которая отсекает нежелательный ресурс на момент формирования выдачи и внешнюю, которая начинает работать когда сайт уже появился в результатах поиска. Проект по привлечению оптимизаторов для борьбы с дорвеями входит во вторую часть тестируемой системы.


seonews.ru

 

Microsoft разработала охотника на спамерские страницы

Microsoft разработала систему поиска спамерских веб-страниц.

«Strider Search Defender» ищет сайты, состоящие из ключевых слов для накрутки рейтингов в поисковых системах.


Cистема фильтрации сделает создание спамерских страниц бессмысленным и, таким образом, уничтожит это явление, считает И-Мин Ванг (Yi-Min Wang), старший исследователь Microsoft.
Инструмент не ищет спам по содержанию. Вместо этого он использует поисковые системы для нахождения ссылок на потенциальные спамерские страницы. Эти ссылки, как правило, размещают на форумах, в гостевых книгах, комментариях к блогам и других общедоступных источниках.
Search Defender начинает работать по списку подтвержденных спамерских адресов. Компонент «Spam Hunter» ищет эти адреса в разных поисковых системах и собирает с них ссылки, которые затем снова пропускает через себя.
После сбора списка потенциальных спамерских сайтов, в дело вступает «Strider URL Tracer». Он отсеивает ложные срабатывания. Модуль проверяет каждый сайт на предмет перенаправления на другие спам-страницы.
Спамеры размещают свои страницы на разных бесплатных сервисах — Angelfire, Tripod, Geocities (Yahoo) и других, а также в блогах. За счет большого количества популярных ключевых слов, спамерские страницы появляются на первых страницах в результатах запросов поисковых порталов, сообщил Silicon.

CNews.ru

 

Скачать SEO for Firefox (Beta)

Плагин для Firefox показывает :


SEO for Firefox Features:
Pulls useful market research data right into Google's and Yahoo!'s search results, including the following data near each search result.

PR: (Google PageRank) an estimated measure of global link authority

Age: age pulled from Archive.org, shows the first time a page was indexed by Archive.org's spider. The theory is that if Archive.org found a page so did many of the major search engines.
Links: (Yahoo! linkdomain) shows a rough estimate of the total number of links pointing at a domain
.edu Link: (Yahoo! .edu linkdomain ) shows a rough estimate of the total number of .edu links pointing at a domain
.edu Page Link: (Yahoo! .edu link ) shows a rough estimate of the total number of .edu links pointing at a specific page
.gov Link: (Yahoo! .gov linkdomain ) shows a rough estimate of the total number of .gov links pointing at a domain
Page Links: (Yahoo! link) shows a rough estimate of the total number of links pointing at a page
del.icio.us: number of times a URL has been bookmarked on Del.icio.us. Heavily skewed toward techy / Web 2.0 stuff.
Technorati: an estimate of the total number of links to a site from blogs
Alexa: rank based on website traffic . Heavily skewed toward internet marketing and webmaster related resources.
Cached: (Google site:) shows how many pages from a site are indexed in Google
dmoz: searches the Google Directory to count the total number of pages from a site that are listed in DMOZ, and the total number of pages listed in DMOZ that reference that URL.
Bloglines: shows you how many people are subscribed to a particular blog via Bloglines.

dir.yahoo.com: is a site listed in the Yahoo! Directory or not.
WhoIs: makes it easy to look up the whois data for any site.


This page is powered by Blogger. Isn't yours?