воскресенье, 30 декабря 2007 г.

Правильная регистрация в Google

Самая лояльная поисковая система по отношению к вебмастерам и разработчикам.

Проиндексировано страниц – более 1,500,000,000.
Количество поисковых запросов в день – около 150.000.000
Индексируемые файлы – HTML, HTM, CFM, CGI, ASP, JSP, PHTML, PHP, Adobe PostScript; Lotus 1-2-3 и WordPro; MacWrite; Microsoft Excel, PowerPoint, Word, Works и Write, а также .rtf.

Обновление базы данных – для сайтов с низким page rank (количеством ссылок на данный ресурс с других сайтов) около 20 дней, с высоким - ежедневно.

Важные мета теги – Google обращает внимание на Тег Title, так что постарайтесь задать каждой странице свой Title (слова, прописанные в Title практически для всех поисковиков имеют наибольшее влияние на релевантность).
Среднее время индексации – c индексацией только что добавленного сайта Google справится где-то в течение нескольких недель. Очень уж много ссылок в базе данных их робота - около 1.000.000.000.000, на которые ему необходимо заглянуть.

Как попасть в Google – есть два способа. Первый - просто добавить свой сайт используя форму для добавления сайта в Google - Submitting your Site, второй способ - Google сам добавит Ваш сайт, если при индексации других сайтов ему попадется ссылка на Вашу страницу, в этом случае наибольшей привилегированностью пользуются всем известные каталоги – Yahoo (прим. SoftPortal.com: Yahoo более не регистрирует сайты бесплатно, даже заплатив деньги, Вы не получите 100% гарантию регистрации в каталоге Yahoo) и DMOZ. Если Ваш сайт уже добавлен в Yahoo, значит, через некоторое время он появится и в Google.

Основной момент, на который необходимо уделить внимание вебмастеру для успешной регистрации в Google – Увеличение page rank. Что такое page rank – это количество ссылок (линков) на Ваш сайт со страниц других сайтов (каталогов, ffa, сайтов партнеров). Чем больше на Вас ссылаются, тем уютнее Вы себя чувствуете у Google. Если Ваш сайт на английском языке для повышения своего page rank Вы можете зарегистрировать себя на FFA (Free For ALL) сайтах – одна регистрация и линк на Ваш сайт будет размещен на 151.500 страницах (FFA.net). У нас FFA пока не получил широкого распространения, поэтому приведу пару ссылок на поисковые ресурсы добавление в которые обязательно заметит Google и повысит Ваш page rank Alpha Counter (Каталог), META - Украинская поисковая система. Для того чтобы Ваш сайт в результате поиска Google не пас последние места, Вам необходимо иметь ссылки хотя бы на 30 сайтах (каталоги, счетчики, форумы и т.д.).

Внимание! Для получения оптимального результата от Google производите обмен ссылками только с сайтами схожими по тематике! Также не забывайте про ключевые слова.

среда, 26 декабря 2007 г.

Полезные ссылки

http://web.interhit.ru - бесплатный сервис регистрации сайта в каталогах

http://submitter.ru/ еще один бесплатный сервис регистрации сайта в каталогах и рейтингах, однако бесплатно не есть хорошо

http://wordstat.yandex.ru Очень полезный для оптимизатора сервис. Показывает статистику поисковых запросов.

http://1ps.ru/ C помощью этого сервиса вы сможете зарегистрировать свой сайт в каталогах.

http://seop.ru Интерент ресурс посвященный оптимизации сайтов для поисковых систем.

http://toolbar.ru - Анализ сайта , тИЦ, pr. Отличный инструмент опитимизатора.

http://wlist.com.ru Список так называемых \\белых каталогов т.е. каталогов не требующих разместить обратную ссылку.

http://www.siteposition.ru/check.php - одновременная проверка позиций по запросам в поисковых системах Яндекс Rambler Google AltaVista, с глубиной поиска
до 1000 позиций

http://www.prsearch.biz/ - частично пееркликается с предыдущим; отслеживание позиций вашего сайта по ключевым запросам во всех Гуглах (google.com, ru, и т.д.), а также в Яху и МСН.

http://seo-monitor.ru/online/ - один из популярных методов
определения позиций вашего сайта по запросам в Яндексе, Гугле, Рамблере и Апорте

http://www.alexa.com/data/details/tr...//www.SITE.ru/ - детальная
статистика вашего сайта на Alexa.com. Урл не забудьте поменять,
вместо SITE.ru

http://search.rambler.ru/srch?sort=0...ort=2&limit=50 -
страницы вашего сайта, проиндексированные Рамблером

http://siteexplorer.search.yahoo.com...&fr2=seo-rd-se - страницы вашего сайта, проиндексированные Яху

http://www.digitalpoint.com/tools/webrank/ - определение Yahoo webrank

http://www.seocompany.ca/directory/ilqtool.html - определение ILQ
(\"Прибывающее Качество Связи\" в переводе онлайн-переводчика )

https://adwords.google.com/select/KeywordToolExternal - подбор
вариантов ключевых слов для вашего сайта

http://webholl.com/index.php?name=Ne...rticle&sid=106 -
рекомендации по созданию тайтла страницы.

http://tools.seo-info.ru/se_update/update.htm - когда были
апдейты поисковых машин Яндекса, Гугла и Рамблера, и какой мощности.

http://developers.evrsoft.com/find-traffic-rank.shtml - проверить Rank Alexa.
Alexa Traffic Rank показывает сравнительную посещаемость данного сайта
относительно всех остальных сайтов в Интернет. Чем меньше значение этого параметра,
тем более популярен оцениваемый сайт. Например, значение 50 означает, что сайт
находится на 50 месте по посещаемости среди всех сайтов в Интернет. Рейтинг может
варьироваться от 1 до 4.000.000. Значения менее 100.000 означают, что сайт имеет
хорошую посещаемость. Значения 3.000.000-4.000.000 соответствуют новым сайтам,
либо сайтам, не имеющим более менее значительного трафика.

http://tutorial.semonitor.ru/ - подробное и основательное описание
основ раскрутки и оптимизации сайта

http://www.site-auditor.ru/download.html - Вы сможете быстро собрать данные,
необходимые для оценки видимости сайта в Рунете;

http://web.archive.org/collections/web.html - сервис, которым можно посмотреть историю ПР для вашего сайта;


http://www.advans.ru/value/ - сервис для оценки стоимости продвижения в Яндексе. Стоимость продвижения определяется по каждому ключевому запросу. Цена назначается исходя из двух факторов - популярности запроса и конкуренции по этому запросу. Критерием конкуренции предлагается считать цену клика в директе;

http://www.whois-service.ru/lookup/ - IP Lookup — просмотр информации об ip-адресе и подсетях;br />
http://www.iwebtool.com/speed_test - тест скорости загрузки морды;

http://www.iwebtool.com/spider_view - сразу увидите, чтО видят пауки на морде вашего сайта;

Сколько нужно времени для качественной индексации сайта поисковиками?

Сколько необходимо затратить времени на полную индексацию поисковиками интернет проекта? С момента добавления сайта в индекс поисковой машины проходит некоторое количество времени пока поисковый робот дойдет до Вашего сайта. Этот срок можно оценить приблизительно в 10-20 дней для российских поисковиков систем (Рама, Яша, Апорт…) и до 2-3 месяцев для поисковых роботов зарубежной формации, особенно если речь идет о таких занятых глобальных “киборгах” как Yahoo, Google, MSN… При этом эти сроки (будучи сами по себе ориентировочными) не гарантируют что робот, зайдя на сайт первый раз, проиндексирует сразу все содержащиеся там страницы. Например, для сайта в 300 страниц через три недели после добавления в поисковики Рамблером было проиндексировано 12 страниц, Яндексом - 2! Таким образом, для усредненного проекта в 20-50 страниц про полную индексацию можно говорить лишь к истечению второго месяца. И это для российских поисковых систем, а что тогда говорить про зарубежные поисковики?

DMOZ - что это такое

По адресу www.dmoz.org вы можете найти открытый каталог сайтов, он же каталог вырос и преобрел свой интерес у вебмастеров. Так, на 2007 год число ресурсов в базе составляло 4 860 000. Большинство ресурсов - неанглоязычные сайты, которые размещаются в специальной категории World. На данный момент в ней находится более 50 тысяч русских сайтов.

Довольно часто каталоги выдвигают условия для владельцев ресурсов, желающих добавить проект в базу. Например, требуют плату за регистрацию, как в Яндекс каталоге или ТОП WebAlta, ну или разместить обратную ссылку на сайт. В отличие от остальных каталогов, - за участие в DMOZ не нужно платить каких-либо денег. Однако заявка может быть рассмотрена модератором каталога (у каждого каталога свой модератор)в течение нескольких недель или даже месяцев. Такой долгий срок связан с тем, что каждый ресурс проходит строгую проверку модератора на уникальность контента, хороший дизайн, и вообще, чтобы убедиться, что сайт создан для людей. Если ему что-то покажется подозрительным, он в состоянии отклонить заявку без объяснения причины.

Как работают поисковые роботы

Поисковая машина состоит из трех частей. Первая часть называется Spider(паук), или Crawler, или Robot(робот). Это программа, которая посещает страницы сайта и сохраняет текстовое содержание в базе данных поисковой машины. Робот-паук двигается по гиперссылкам, постепенно обходя веб-страницы сети. Через некоторое время робот-паук заново обходит все страницы и вносит изменения. Период захода робота зависит от быстроты его работы и может составлять от нескольких дней до нескольких месяцев.

Вторая часть эта сама база поисковой машины или индекс - куда помещается вся информация, которую находит робот-паук. База данных поисковой системы представляет собой гигантское вместилище информации, где хранится текстовая информация всех посещенных и проиндексированных роботом-пауком страниц.

Третья часть, эта программное обеспечение поисковой машины, которое на запрос пользователя выдает нужную ему информацию. Поисковые системы используют поиск по ключевым словам. После ввода пользователем ключевых слов они проходят по базе данных поисковой машины и отыскивают все страницы, где эти слова встречаются. Получается огромный список, который выстраивается в порядке убывания релевантности запросу.

Техническая оптимизация для Гугла.

Используйте для проверки сайта текстовый браузер, например, Lynx, потому что большинство “пауков” поисковых систем видят сайт точно так же, как Lynx. Если из-за таких замысловатых ухищрений, как JavaScript, cookies, идентификаторы сеансов, фреймы, DHTML или Flash, просмотреть весь сайт с помощью текстового браузера не удается, то и “паукам” поисковых систем, возможно, будет трудно его сканировать.
Разрешите поисковым роботам сканировать Ваши сайты без идентификаторов сеансов и без аргументов, которые позволяют отслеживать пути их передвижения по сайту. Эти инструменты полезны для отслеживания поведения конкретного пользователя на сайте, но роботы посещают сайты совершенно иначе. Использование этих инструментов может привести к неполной индексации сайта, поскольку роботам не всегда удается исключить URL, которые выглядят по-разному, но на самом деле ведут на одну и ту же страницу.
Убедитесь, что веб-сервер поддерживает заголовок HTTP If-Modified-Since. Он позволит серверу сообщать Google, изменилось ли содержание со времени прошлого сканирования. Поддержка этой функции сэкономит Ваш трафик и накладные расходы.
Воспользуйтесь размещенным на веб-сервере файлом robots.txt. Он сообщает сканерам, какие каталоги можно сканировать, а какие нельзя. Следите за актуальностью содержания этого файла, чтобы случайно не заблокировать сканер поискового робота Google. Инструкции о том, как давать указания роботам, сканирующим сайт, приводятся на сайте http://www.robotstxt.org/wc/faq.html.
Если Ваша компания решит приобрести систему управления содержанием, проверьте, может ли она экспортировать содержание, чтобы позволить “паукам” поисковых систем его сканировать.
Не используйте в качестве параметра в URL “&id=2006″, поскольку такие страницы мы не индексируем.

Что такое СЕО?

Может кто не знал, но SEO это сокращение от Search Engines Optimization - “Оптимизация для поисковых машин”.

Дутый PR

Существует такой эффект в Гугле как склеенный PR и любому домену можно сделать Page rank хоть 10. Для создания левого PR , сайт склеивают с сайтом у кого есть дествительно высокий PR. Делается это клоакингом, Googlebot заходя на сайт сразу же отправлятся на допустим adobe.com с PR10. Google видит что пользователь в лице бота приходет на страницу с десяткой и домену присваевается тоже десятка в тулбаре.

воскресенье, 16 декабря 2007 г.

Cоветы спамеру

Совет 1. Никогда и ни при каких условиях не пользуйтесь хостингом от Agava(http://www.h12.ru) или Amilo(http://www.amilo.net), если хотите создать сайт со спамерской тематекой. Они удаляют такие сайты без предупреждения. Проверено на собственном опыте!

Совет 2. Пользуйтесь списком бесплатных почтовых служб, если вы пользуетесь программами наподобии Hy Email Searcher. В поле USERNAME@ вставляйте адреса из этого списка.

Совет 3. Пользуйтесь такими сайтами как mscracks.com и crackspider.net, чтобы разыскивать крэки.

Совет 4. Для того, чтобы никто не узнал ваш адре пользуйтесь ремейлерами. Например: Advanced Direct Remailer.

Совет 5. Ищите бесплатные поисковики e-mail'ов на freeware.ru в разделе почта>>разное.

Совет 6. Часто программы-анализаторы входящей электронной почты пользуются для отсеивания спама следующем алгоритмом: приходит письмо, если программа или пользователь оценивают его как спам, то программа сохраняет текст письма, если в следующем письме обнаруживаются фразы похожие на те, которые содержаться в письме, оененном как спам, то программа начисляет очки письму. Чембольше очков, тем вероятнее программа оценит его, как спам. Для сведения "на нет" эффективности таких анализаторов пользуйтесь не текстом а баннерами, в которых содержиться текст рекламодателя, а также вставляйте в письмо такие фразы, как "Привет, это.." или "Это мама". Пользователь оценит такое письмо как спам. Программа же следущее письмо с такими фразами также отнесёт к спаму. Но может прийти и письмо не содержащее спам, содержащее такие фразы, а программа отнесёт их к спаму и удалит письмо. Пользователь скорее всего будет расстроен и удалит программу.

пятница, 14 декабря 2007 г.

Где лучше размещать фид?

Если вы решили сделать свой фид, я бы советовал его размещать исключительно на отдельных доменах. По крайней мере, не стоит лепить фид к сайту или к его поддомену: если робот начнет индексировать выдачу фида, это, в конце концов, рано или поздно станет причиной бана всего сайта - таковы уж поисковые системы, им неприемлема индексация поисковых результатов любых других поисковых систем (и правильно делают, иначе, люди бы только и ходили с поисковика на поисковик, не доходя до сайтов ). Конечно, скрипты фида можно закрыть от индексации при помощи robots.txt или даже средствами php - поисковый робот и не догадается о существовании фида, но я бы все же не стал рисковать, решать, конечно, вам.
-------------------
live написал:
Я правильно понял, что если я установлю на свой сайт поисковую форму которую получил в RB то в итоге мой сайт забанят.
Ведь с поисковой формы все равно все попадают на фид.
Да, надо закрыть от индексации...

нет, не правильно
если поисковая форма ведет на публичный фид или на личный фид, но так или иначе он расположен за пределами домена, с которого ведет эта форма, то никаких проблем не будет
вообще свой фид можно ставить и тупо на сайт, тут нет ничего страшного, сам по себе фид не является причиной для бана, а вот если его результаты уже начинают индексироваться в больших объемах - это уже является, ну не спамом, но мусором для поисковых систем...
---------------------
Вопрос по фидам.
Что делает скрипт фида? Шлет запрос к поисковой системе? Значит на бесплатных хостингах это не прокатит, потому как там требуются функции для работы с сокетами и протоколом HTTP. То есть требуется с сервера хостера открывать TCP-соединения. Енто низя! Другое дело свой личный сервак соединенный с интернетом.
Поправьте меня, если что не так.
------------------

Как использовать фид?

Ну ясно, что туда надо перенаправлять посетителей, и если те кликнут по ссылке рекламодателя (или сразу по нескольким), вы будите получать деньги с каждого такого клика. Посетителя можно перенаправлять на фид вообще - на его стартовую страницу, чтобы он сам что-то искал или кликал по ссылкам на результаты поиска, которые там часто ставят, превращая стартовую страницу фида в некое подобие поискового каталога. Т.е. там могут быть разные ссылки... хостинг, рыбалка, знакомства... что угодно, при клике по соответствующе ссылке, посетитель попадает на результаты поиска по соответствующему запросу (если, например, кликнул по ссылке "платных хостинг", то, конечно, при правильной ее организации, посетитель попадает на страничку с результатами поиска по запросу "платный хостинг" - там же идут ссылки рекламодателей, которые хотят чтобы на их сайты переходили люди, которые ищут "платный хостинг", в принципе, все это я уже описывал в статьях).
Но посетителей можно пересылать не на главную страницу, а уже на результаты поиска. Как правило, такой вариант более эффективный: во-первых, если вы перенаправляете посетителя по интересующей его теме, он может накликать очень много, во-вторых, перед посетителем сразу открываются платные ссылки рекламодателей - ему не нужно делать никаких дополнительных действий.

Что же такое фид

Сам по себе фид это поисковая выдача по запросу. Т.е., например, если PPC сравнить поисковой системой (на самом деле так оно и есть, только ссылки в результатах поиска PPC - это сайты рекламодателей), то фид это страничка с результатами поиска по запросу. Например, зашли вы на поисковик, набрали "скачать mp3" и нажали кнопку "Искать", получили результат поиска, вот это в PPC и называется фидом. Некоторые люди фидом называют сам PPC поисковик. Тут нет четкой терминологии, собственно, что эти такое именно, поисковик это или его страничка с результатами поиска, это уже не так важно.

среда, 12 декабря 2007 г.

Простой способ "вечной" работы Касперского.

Рано или поздно любой ключ будет в черном списке так как ключ выложенный в инете доступен всем и если вы думаете, что найдя его вы решили проблему вы ошибаетесь, так как при обновлении баз он рано или поздно будет в черном списке, есть 2 варианта:
1) либо купить ключ;
2) либо воспользоваться написанным здесь советом.

Касперский должен работать, как "обычно", без каких либо изменений и отключений внутренних защит. Вообщем, все как обычно. Если не работает, зарегестрируйтесь любым ключом, например который находится в арихиве предварительно удалив предыдущий ключ.


Далее файлик C:/Documents and Settings/All Users/Application Data/Kaspersky Lab/AVP6/Bases/black.lst сделать невидимым и только для чтения. Прим. Путь может незначительно отличаться, главное найти файл black.lst Как сделать "невидимым и только для чтения"?
Перед этим необходимо выбрать "сервис", "свойства папки", "вид", "показывать скрытые папки и файлы", "применить". Находим сам файл. Выделяем его-жмем правую кнопку мыши и жмем "свойства" и внизу видим три квадратика "только чтение", "скрытый", "архивный". соответственно отмечаем "скрытый" и "только чтение". Далее "применить" - "ок". Все. В итоге ключик не в черном списке и при обновлени...

Если не получилось попробуйте снова переустановив Касперского. Желаю удачи пробуйте люди пишут что у них всё ОК!!!

суббота, 8 декабря 2007 г.

Справочный центр для веб-мастеров

http://www.google.com/support/webmasters/

url

http://www.stopwaroniran.org/petition.shtml
http://www.perlmonks.org/?node_id=45761
http://support.microsoft.com/kb/210948
http://www.yourfamily.org/addname.cfm?Family=5
http://www.yourfamily.org/addname.cfm?Family=55
https://www.blogger.com/comment.g?blogID=8819137&postID=8371079696700682408
https://www.blogger.com/comment.g?blogID=8644244&postID=4743649924498547700
https://www.blogger.com/comment.g?blogID=23205268&postID=3423187289942935586
http://www.arnayo.de/en/Web-Directory-Add-URL.html

Как создать удобный для Google сайт?

Что необходимо сделать

Наше руководство для веб-мастеров содержит технические рекомендации, советы по дизайну и обеспечению качества. Ниже приведены подробные советы по созданию удобного для Google сайта.

Предоставьте посетителям необходимую информацию
Обеспечьте высококачественное содержание страниц, особенно главной. Это самое важное условие, которое нужно выполнить прежде всего. Если на ваших страницах содержится полезная информация, они привлекут много посетителей, а веб-мастера будут охотнее создавать ссылки на ваш сайт. Если вы хотите, чтобы ваш сайт был полезным и информативным, постарайтесь четко и точно изложить на его страницах свою тему. Подумайте, по каким ключевым словам пользователи будут искать ваши страницы, и включите эти слова в текст на сайте.

Постарайтесь, чтобы другие сайты ссылались на ваш
Ссылки помогают сканерам найти ваш сайт и могут способствовать тому, что сайт будет чаще показываться в наших результатах поиска. Составляя результаты запроса, Google полагается на рейтинг страницы (иначе - PageRank, т.е. показатель важности страницы) и усовершенствованные методы сопоставления текста, чтобы показывать для каждого запроса наиболее важные и релевантные страницы. Google подсчитывает число голосов в пользу той или иной страницы и определяет таким путем ее рейтинг, интерпретируя ссылку со страницы А на страницу В как голос страницы А в пользу страницы В. Голоса, полученные от страниц, которые сами являются "важными", оцениваются выше и помогают сделать "важными" и другие страницы.

Учтите, что наши алгоритмы могут отличать настоящие, "естественные" ссылки от ненастоящих. Естественные ссылки на ваш сайт создаются как часть динамического содержания Интернета, когда другие сайты решают, что содержание вашего сайта может заинтересовать их посетителей. Неестественные ссылки на ваш сайт размещаются на сайтах специально, чтобы поисковые системы считали его более популярным, чем он есть на самом деле. Некоторые типы таких ссылок (например, схемы построения ссылок и дорвеи) рассматриваются в нашем руководстве для веб-мастеров.

Для индексирования и определения рейтинга сайта полезны только естественные ссылки.

Убедитесь, что содержание вашего сайта легкодоступно
Создавайте сайт с использованием структуры логических ссылок. На каждую страницу должен быть переход хотя бы по одной статической текстовой ссылке.

Для проверки своего сайта используйте текстовый браузер, такой как Lynx. Большинство "пауков" видят ваш сайт так, как его увидел бы Lynx. Если из-за таких функций, как JavaScript, файлы cookie, идентификаторы сеансов, фреймы, DHTML или Macromedia Flash, просмотреть весь сайт с помощью текстового браузера не удается, то и у "пауков" могут возникнуть проблемы с его сканированием.

Подумайте о создании статических копий динамических страниц. Хотя индекс Google включает динамические страницы, они составляют лишь малую часть индекса. Если есть подозрения, что ваши динамически созданные страницы (например, URL, содержащие знаки вопроса) затрудняют работу нашего сканера, можно создать статические копии этих страниц. В этом случае не забудьте добавить динамические страницы в свой файл robots.txt, чтобы мы не считали их копиями.

Чего не следует делать

Не заполняйте свои страницы списками ключевых слов, не пытайтесь публиковать разное содержание для поисковых систем и для пользователей, не создавайте страницы, предназначенные только для сканеров. Если сайт содержит страницы, ссылки или тексты, не предназначенные для посетителей, Google рассматривает их как вводящие в заблуждение и может игнорировать такой сайт.

Обращаться к услугам фирм по оптимизации поиска совсем необязательно. Некоторые компании заявляют, что могут "гарантировать" высокий рейтинг вашего сайта в результатах поиска. В то время как существующие на легальном положении консалтинговые фирмы действительно могут улучшить функциональность и содержание вашего сайта, остальные используют нечестные приемы, пытаясь обмануть поисковые системы. Будьте осторожны: если ваш домен связан с одной из таких мошеннических фирм, он может быть исключен из нашего индекса.

Не используйте изображения для показа важных имен и названий, а также другого важного содержания и ссылок. Наш сканер не распознает текст, содержащийся в изображениях. Используйте атрибуты ALT, если основное содержание и ключевые слова на вашей странице нельзя перевести в обычный формат HTML.

Не создавайте многочисленные копии страницы под разными URL. Многие сайты предлагают версии страниц только с текстом или версии для печати с тем же самым содержанием, что и на соответствующих страницах с графикой. Чтобы обеспечить включение выбранной вами страницы в результаты поиска, необходимо блокировать копии для наших пауков с помощью файла robots.txt. Дополнительную информацию об использовании файла robots.txt можно найти в разделе о блокировании робота Google.