ArchangelNN
Junior Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Цитата: Хотя простое количество ссылок на ресурс еще вовсе не гарантирует высокий показатель ТИЦ и ПР. Наглядный пример на моих сайтах: http://urikor.net - страниц на Яндексе — 3 256, тИЦ — 500, PR - 4 http://on-line-teaching.com - страниц — 7 019, тИЦ — 275, PR - 3 Наверное, все-таки, очень важное значение имеет то, где расположены ссылки. | Ну, во-первых ТИЦ не 500 и 275, а 400 и 180, а во-вторых, прежде чем обсуждать сео, ребята, ну честное слово, книжки почитайте. Это не понты какие-то, а суровая реальность. А реальность заключается в том, что ленивые люди пытаются раскручивать свои сайты не зная даже основ этой самой раскрутки и в частности регистрации в каталогах, от этого просто-напросто каталоги засе...ют, от чего последние и мрут. Результат поиска: страниц — 2 063, сайтов — не менее 484 Кто-нибудь может ответить мне на вопрос - где здесь беки? А беки - это количество сайтов - не менее 484, а не количество страниц, как думает гр. urikor. Поэтому, ув. urikor, не смотрел Ваши беки, но если они чисто каталожные, то данному результату в нынешней ситации с Яндексом - это более чем отлично. Посему, советую соблюдать некоторые нормы при регистрации сайтов в каталогах, которые помогут Вам получить более лучшие результаты: 1. Отсейте все ваши каталоги на бан в Яндексе, дабы не прогонять половина вхолостую - тем самым Вы сэкономите себе и людям, кому предлагаете базы, время, а время, как известно деньги. 2. При прогоне на автомате соблюдайте примерное кол-во сиволов в названиях и описаниях: в названиях - до 50, в описаниях - от 300. 3. Составляйте человеческие названия и описания во множествах экземплярах - если гоняете по базе в 1000 каталогах с 1 названием и 1 описанием, то Вы делаете обезьянью работу - ну не получится у Вас хорошего результата, поисковики же не дураки. Оптимальный вариант около 300 названия и 300 описаний на 1000 каталогов. 4. Кроме проверки на бан, проверьте каталоги на целостность, а также загляните во все robots.txt, чтобы не были закрыты страницы от индексации поисковиками. 5. И, наконец, профессионалам - прогоните 5-6 сайтов, соберите беки, затем зеливаете беки в сабмиттер, добавляете в отдельную папку остальные каталоги с проставленной галкой "не добавлять дубликаты" - вот Вам черный список для Вашей базы, заводите новую базу и очищаете ее от черных, описанных Выше - идеальнейшая база готова. Удачи. Добавлено: Сорри, за старый пример в начале повествования, но актуальность от этого не меняется... |