суббота, 18 июля 2009 г.

Плюсы и минусы ночной работы интернет предпринимателей

Изначально, по своей сути человек – существо, ведущее преимущественно дневной образ жизни. Нам свойственно бодрствовать днём и спать ночью. Но в силу своей привычки, рабочей необходимости или других обстоятельств, многие люди не спят в ночное время.

Кроме ночных гуляк, засиживающихся в кабаках и проводящих время на дискотеках, нередко можно услышать про то, что кто-то из работников интернет-бизнеса трудится по ночам.

Казалось бы, в нашем распоряжении любое время, которое мы захотим посвятить работе. Будь то утро, день или вечер. Почему же мы так часто выбираем ночь? Какие ест плюсы в этом выборе, и какие минусы таит ночная работа?

Начну, пожалуй, с плюсов:

- Никто не отвлекает от работы. Ни друзья, ни родные. Телефон (как правило) молчит, в дверь никто не ломится и так далее.
- Тихо. Посторонних шумов (как правило) нет, работать комфортно.
- Прохладно (не так жарко как днём) – актуально для жаркого лета.
- Никто не отвлекает в icq, проще сосредоточиться на работе.
- Американцы не спят, когда у нас ночь, так что если общаетесь с ними по работе – удобно работать по ночам.

Но есть и минусы:

- Непостоянный режим сна часто вызывает переутомление, усталость и снижение производительности труда.
- Коллеги по работе, деловые партнёры, суппорт партнёрских программ и другие люди могут спать ночью (да, бывают и такие). Поэтому общение с ними может быть затруднительным.
- Когда ты отсыпаешься днём после ночной работы, обязательно кто-нибудь позвонит, или ещё как-нибудь разбудит. В итоге из-за какой-то мелочи ты не высыпаешься, и целый день чувствуешь себя, мягко говоря, не важно.
- Работа компьютера ночью может мешать спать родным, особенно если живёшь в однокомнатной квартире.
- Общаться с родными получается урывками в те моменты, когда никто из вас не спит, не на работе и не занят ничем другим. Терпимо, но неудобно.

Я бы сказал, что выбор ночной работы – очень индивидуальное занятие.

Например, я в последнее время стараюсь поменьше засиживаться ночью. Хотя по привычке иногда до 2-3 часов ночи, бывает, что и засиживаюсь. Но уже с ноутбуком и на кухне, чтобы не мешать жене спать.
В большей степени, переход от ночной работы к дневной у меня получился потому, что удалось наладить комфортную работу днём. Так, чтобы никто не отвлекал и у меня основные плюсы ночной работы есть теперь и днём.

А как вы работаете? По ночам, или всё-таки в дневное время стараетесь всё успевать?

Ну и традиционные мысли вслух:

Социальные сети всё набирают и набирают обороты. Как с ними управляться и зарабатывать с их помощью? Чтобы узнать про это, стоит прочитать новые секреты вконтакте.

пятница, 10 июля 2009 г.

Omegalinks - англоязычный аналог Блогуна

Покупка и продажа постовых и статей на русскоязычных блогах - дело полезное, удобное и хорошо освоенное многими оптимизаторами. Таким способом можно неплохо нарастить пузомерки русскоязычным сайтам.

Но если нужно раскрутить англоязычный сайт?

Для этого нужна система, аналогичная по своему функционалу "Блогуну", ориентированная на англоязычный сегмент.

Таких систем не мало, но с большинством из них не очень удобно работать из-за того, что они не работают с Webmoney.

Сегодня я нашёл систему, которая работает с Webmoney, ориентирована на англоязычные сайты и представляет достаточный функционал для работы. Это omegalinks.net.

Суть системы аналогична Блогуну. Так что расписывать много не буду. Отмечу только самое интересное:

- система работает с англоязычными сайтами
- принимается темы "gambling" и "adalt" (многие биржи не работают с этими тематиками)
- комиссия системы 10%
- есть реферральная система

В системе уже есть довольно много серьёзных рекламодателей с хорошими бюджетами. А конкуренция, в отличие от того же Блогуна, не такая жесткая.

Так что можно смело регистрироваться и начинать зарабатывать на своих англоязычных блогах. Ну или продвигать их-же, работая в системе как оптимизатор.

вторник, 7 июля 2009 г.

Дополнение по автоматической регистрации в англоязычных каталогах

В дополнение к ранее написанному по регистрации сайтов в англоязычных каталогах, хочу сказать, что авторы проекта гибко и, что немаловажно, оперативно реагируют на чаяния своих клиентов.

Не успел я посетовать на необходимость разгребать все письма по регистрации, выискивая ссылки для подтверждения, как была добавлена опция, перекладывающая эти заботы на сам сервис RegMonster.ru.

"Если вы не хотите самостоятельно разбирать письма от каталогов,
которые требуют пройти по ссылке для подтверждения, то поставьте редирект на ***********@gmail.com и мы сделаем это сами."


Вот это я понимаю - забота о клиентах ;)

понедельник, 6 июля 2009 г.

Автоматическая регистрация в англоязычных каталогах сайтов

Буквально за пару дней до предыдущего АПа PR от Google, я начал тестирование сервиса для автоматической регистрации сайтов в англоязычных каталогах RegMonster.ru.

RegMonster.ru

Почему я акцентировал внимание именно на обновлении значений PR от Google? Потому, что в первую очередь, прогон по англоязычным каталогам сайтов даёт сайту прирост PR.

Чем же так хорош сервис RegMonster.ru?

Во-первых, этот сервис максимум головной боли по регистрации в каталогах берёт на себя. Сбор и проверку базы, составление качественных описаний для сайта, которые будут рамещены в каталогах, проводит регистрацию сайта в англоязычных каалогах с заданной вами скоростью. И много чего ещё.

Единтсвенный минус, который также можно назвать индикатором успешности работы системы - это отсутствие автоматического подтверждения ссылок для регистрации.

Все письма о регистрации в каталогах закидываются на указанный вами почтовый ящик, и разгребать их приходится лично вам.

Да, с одной стороны приятно видеть реальные результаты работы системы автоматической регистрации. Но ради выискивания 2-3% писем со ссылками подтерждения регистрации, приходится просматривать их все.

Хотя, кому как больше нравится. Можно эти письма и не смотреть, ссылки не нажимать. Это несколько снизит общее количество каталогов, в которых будет зарегистрирован ваш сайт и не более того.

По поводу качества каталогов в базе. Все они модерируемые, так что соседства с откровенными ГС быть не должно.

Но при этом порядка 3% каталогов отказали в размещении моей ссылки. В данном случае, это не вина системы RegMonster.ru.
Просто я выбрал тематику "Онлайн казино", которая не всем каталогам нравится и подходит.

Были также отказы по причине не соответствия правилам каталога. В частноси - "Мы принимаем только Канадские сайты". Такой каталог пока был один.
Некоторые каталоги не дают объяснений, почему сайт не был принят. Другие вываливают сразу все возможные причины (выписку из своих правил) и поди догадайся, что тут не так.

Но всё это в общей массе успешных регистраций в каталогах смотрится вполне естесственно и общую картину не портит.

Что нужно, чтобы заказать регистрацию своего сайта в англоязычных каталогах сайтов?

Вот тут всё просто.
Нужно зарегистрироваться на сайте RegMonster.ru, пополнить счет на сумму от 15$ до 49$ (в зависимости от выбранного тарифа).

После этого, нужно создать проект для регистрации. Это очень просто. Указываем сайт и прописываем ключевые слова, по которым будут составляться описания нашего сайта. Также надо указать электронный адрес для регистрации, на который будут приходить писма со ссылками подтверждения регистрации и просто со служебной информацией.

После этого скачиваем, архив с файлами, отвечающими за подтверждение наличия кодов каталогов у вас на сайте (ссылка на него будет в настройках проекта).

Фактически, эти коды не размещаются, так что сайт не превращается в мусорку ссылок. Но боты каталогов отлично принимают предложенную им "ссылку".

Эту папку заливаем в корень своего сайта и прописываем путь до неё в настройках проекта.

Ну и указываем, с какой скоростью будет проводиться регистрация. Я выбрал 300 каталогов в сутки, так как до следующего апдейта PR времени ещё более чем достаточно. А плавное наращивание ссылочной массы может быть лучше воспринято поисковыми системами.

Вот, собственно и всё, что нужно было сделать для запуска своего проекта. Всё остальное за вас сделает RegMonster.ru.

Я ещё вернусь к этому вопросу, когда полностью пройдёт регистрация по всей базе каталогов. А также после обновления PR моего сайта (сайт новый, никакими другими способами не продвигается) и расскажу о результатах автоматической регистрации в англоязычных каталогах статей.

среда, 1 июля 2009 г.

TextPipe Pro - пример обработки HTML-файла

TextPipe Pro

Программа TextPipe Pro предоставляет огромные возможности по обработке текстовых файлов.
Но не смотря на довольно большое количество учебных и демонстрационны материалов, освоить эту программу не всегда легко удаётся.

Для того, чтобы продемонстрировать на конкретном примере возможноси программы TextPipe Pro, я подготовил этот небольшой мануал.

Он не даёт ответов на все вопросы, но он поможет тем, кто начинает осваивать эту программу, сделать в ней первые шаги. А дальше, поверьте, освоение пойдёт гораздо проще.

Все рабочие материалы к этому мануалы я залил одним файлом на рапиду. Можете скачать отсюда.

Я буду ссылаться в тексте на некоторые файлы из этого комплекта. Но на самом деле качать его не обязательно - если повторять по шагам все описанные операции, всё будет и так понятно.

Итак, возьмём вот такую распространённую задачу: нужно из HTML-кода страницы с интересующей нас статьёй выделить только текст статьи и заголовок, удалив всё лишнее.

Для чего это может быть нужно?
Например для сбора текстов, их дальнейшей обработки (синонимайзинг, рерайт, перевод) и наполнения своих сайтов.

Возьмём случайную статью. Например эту: http://stroybm.ru/articles/kadry/20090624134642/index.html

Исходный код в приложенном файле "html_code_text.txt"

Для начала нужно выделить код только статьи из кода всей страницы. Это решается заменой. И я с этим сам всегда мучаюсь.
Суть простая. Найти какой-то неповторимый элемент страницы ДО основной статьи и сразу ПОСЛЕ неё.
И потом заменить по типу "Всё до, включая..." и потом "Всё после начиная с..."

В нашем случае уникальный элемент "ДО", это

Чтобы TextPipe заменил всё от начала страницы до этого элемента (включая его), нужно задать ему команду:

Поиск и замена -> Найти схему (стиль old egrep)

Указать в поле для данных:

Выбрать Action -> Remove

И всё. Он удалит нам всё до этой строки.

Скрин (все картинки кликабельны):

TextPipe Pro мануал

Теперь пройдём по поряду по коду этой строки, чтобы было понятно для чего тут что.

Итак. Ещё раз. Оригинал уникальной строки:

а изменённая строка:

. - это любой знак, т.е. мы говорим программе: "Ищи любой знак"
* - это любое количество, т.е. мы добавляем программе "Ищи любое количество любых знаков"
- это наш уникальный код, в который вставлен экранирующий символ "\"
этот знак говорит программе - то что стоит за этим знаком, это не программный код (не спецсимвол для макроса), а обычный текст.
Т.е. программа при обработке такой строки знаки "\" просто выкидываются.

Я экранирую всё что может быть расталковано как спецсимволы. Фактически, список этих символов определён, его можно изучить по help`у.
Но если есть сомнение, спецсимвол в коде или нет - его лучше заэкранировать. Это позволит измежать массы возможных проблем с отладкой макроса.

Проверить что получилось на промежуточном этапе можно запустив учебный прогон:

TextPipe Pro Учебный прогон



Теперь нужно удалить всё лишнее после текста.
В этом случае уникальный элемент текста:

Можно заметить, что такой элемент встречается несколько раз, но для нас это не критично, т.к. он встречается сразу после текста, а не внутри него,
так что мы дадим программе задачу найти первый попавшийся элемент и удалить всё, что идёт за ним.

Это также делается при помощи команды: Поиск и замена -> Найти схему (стиль old egrep)

Вот так будет выглядеть команда:



TextPipe Pro команда

В итоге при учебном прогоне получаем текст самой статьи, обрезанный спереди и сзади (файл text_article_cutted_front_end.txt).
Но в нём остаётся много мусора.
Ссылки, пустые строки.

Это мы сейчас оперативно и просто почистим.

Для того, чтобы убрать вообще все тэги в статье (к сожалению, это "убьёт" и все картинки и оформление, которое возможно, хотелось сохранить).
Это самый простой способ. Универсальный. Для каких-то конкретных случаев можно придумать более сложный вариант очистки кода, но пока не будем углубляться.

Удалить -> HTML and XML -> Remove all tags

TextPipe Pro Удалить тэги

Ну и сразу удалим пустые строки из статьи, если они нам не нужны.

Удалить -> Пустые строки

TextPipe Pro удалить пустые строки

В итоге получаем вот такой вот обработанный текст (файл text_article_cutted_2.txt)

В этом файле всё ещё остаётся очень много мусора.
Например:
Также есть табуляции, и прочие мешающие нам элементы.

Добавим ещё пару команд:

Поиск и замена -> Найти точно

Вводим то, что нужно заменить. Конкретно:
В Action выбираем Remove

Либо можем выбрать Replace и заменить на пробел. Но в нашем случае Remove будет корректнее.

Обязательно проверяем, чтобы не была поставлена галочка "Замена только первого". Иначе не весь текст будет очищен от этого символа.

TextPipe Pro замена

А также добавляем команду удаления многих пробелов идущих подряд:

Удалить -> Многие пробелы

TextPipe Pro удалить многие пробелы

То что получилось, уже гораздо лучше, но всё ещё содержит не нужные нам строки, такие как:



А также есть поробелы в начале строки, и пустые строки в конце статьи. Ну и автор. Нужен он нам или нет? Покажу пример, когда не нужен.

То что осталось проще всего обработать удалением строк по номерам.
Лично я так и делаю. Наверняка есть более элегантные и универсальные способы. Но у меня получается этот. Его и продемонстрирую.

Удалить -> Удалить строки -> Удалить диапазон строк

Указывае нужные диапазоны. Чтобы удалить первую пустую строку это будет 1 и 1:

TextPipe Pro удаление строк

Для блока, идущего после названия статьи (имеем ввиду, первая строка уже удалена, строки сместились и отсчитывать теперь нужно от новой первой строки - названия, т.е. со 2-й по 7-ю строки):

TextPipe Pro удаление строк 2

Теперь удаляем строки с конца файла. Если хотим убрать и данные об авторе, убираем последние 6 строк. Если хотим оставить информацию об авторе, тогда нам надо удалить 4 строки с конца файла.

TextPipe Pro удаление строк

Как финальный штрих - убираем пробелы в начале строк:

Удалить -> Пустоты в начале строки

TextPipe Pro Пустоты в начале строки

Всё, вот такой вот итоговый текст мы получили: (файл text_article_final.txt)


Если его закидывать в Wordpress в виде HTML, то больше чистить его не нужно.
Если будем использовать его как текст, то нужно вычистить также такие символы:



ну и другие, которые остались в тексте после всех наших манипуляций.
Делается это также:

Поиск и замена -> Найти точно

Вводим то, что нужно заменить.
В Action выбираем Remove


Я это делаю не всегда.
Т.к. в большинстве сучаев такие элементы мне уже не мешают.

Вот, собственно, и всё. Можно в синонимазер статью закидывать, можно сразу публиковать.

Для того, чтобы статья сохранилась в текстовый файл, нужно будет настроить вывод.
Вместо "Выводить в буфер обмена" (последняя строка макроса), заменяем настройки как показано на рисунке:

TextPipe Pro вывод данных

Все настройки, по моему, вполне понятны. Варьировать можно под свои нужды.

А для того, чтобы TextPipe знал что ему, собственно, обрабатывать, все исходные файлы со статьями (в нашем случае это 1 файл) нужно добавить в список файлов в обработке:

TextPipe Pro файлы

Для этого нужно просто перетащить нужный файл из проводника в окошко TextPipe Pro.

Кроме того, как в моём примере, можно скопировать содержимое обрабатываемой страницы в буфер обмена Windows и запустить обработку.

Настраивается источник для обработки в самой первой строке фильтра:

TextPipe Pro источник

Проверяем как всё работает - запускаем реальный прогон.

TextPipe Pro реальный прогон

В сервисном окошке нам покажут все проводимые операции:

TextPipe Pro результаты работы

Если при обработке возникнут ошибки - они будут показаны красным.

Обработанный материал сохраняется в текстовом файле в папке, которую мы указали.

Если мы обрабатывали данные из буфера - это будет 1 файл. Если брали список файлов - то несколько.

Можно также все файлы сохранять в 1 итоговый текстовый файл. Это настраивается в последнем шаге макроса:
Один файл вывода (объединить файлы вывода вместе).

Кстати, есть ещё два момента.

Если сначала сделать удалить все пробелы в начале строк, а потом убрать пустые строки, то весь текст получится одним большим куском, без пустых строк между абзацами.

Для восприятия человеком это не так удобно. Но для говноблогов, доров и т.п. - вполне подойдёт.

Тогда немного меняется удаление лишних строк. Но тут, как говорится, кому как удобнее.

И второе - наш макрос мы составили для обработки конкретного кода, конкретной страницы.

Проделывать такую работу ради создания макроса для обработки одной единственной страницы - безсмысленно.

Но в большинстве случаев, статьи на сайте имеют типовой формат. Это относится к блогам, каталогам статей и т.п.

Там, где используется какая-то CMS, почти всегда все статьи имеют одинаковый формат (или очень близкий), поэтому написав макров для обработки одной статьи, мы автоматически имеем возможность обработать все статье и с этого сайта.

Но только с этого сайта. Для других нам придётся немного (а иногда полностью) менять код макроса, создавая его по тому-же принципу, как я расписал выше.

Давайте проверим.
Берём ещё какую-нибудь статью с того-же сайта. Например:
http://stroybm.ru/articles/nedvijimost/20090610092658/index.html

Статья, как и в первом случае, выбрана совершенно случайно.

Берём её код (файл html_code_text_2.txt) и помещаем в зону учебного прогона.


Делаем учебный прогон ничего не меняя в настройках макроса.

Сделали и получили отлично обработанный текст (файл text_article_final_2.txt).

Вуаля! У нас готов макрос для обработки всех статей с сайта http://stroybm.ru/.
Не плохо.

Готовый макрос я также залил (файл macros.fll).

Вот, собственно, таким образом можно обрабатывать тексты для наполнения своих сплогов.