На новогодних праздниках, многие сайты слегка меняли свои дизайны. Приделывали шапочки, красные носочки, снежинки, мышек и прочую новогоднюю атрибутику. Делали они это, чаще всего, вручную.
Алексей Ильин написал заметку, где предлагал дописывать в body класс с текущей датой. Можете подробней ознакомиться с этой статьей, а я пока расскажу, почему мне не понравился этот подход.
Во-первых, он предполагает возню с php-скриптами. Не так легко найти в стороннем скрипте место, где нужно что-то как-то изменить. Особенно, если ты в программировании ноль. Кроме того, это решение подразумевает, что каждый день будет генерироваться название класса, а сам класс, скорее всего, не будет определен, что не кошерно.
В этой заметке я расскажу сразу о двух способах решения задачки автоматической смены стилей без использования серверных сценариев. То есть, с помощью JavaScript.
Если вы собираетесь заняться разбором HTML или XML, то класс Perl, который мы разработаем в этой статье, может помочь вам в этом деле.
Не буду здесь грузить про то, зачем нужно грабить и парсить. Остановимся на том, что у нас есть текст, который очень похож на XML. И нам нужно его быстро и грамотно распарсить.
Я уже писал о том, как правильно грабить сайты. В качестве примера информации, которую нужно грабить с других сайтов, я приводил погоду. Вот, решил написать статью, где расскажу как можно получить погоду с сайта gismeteo.ru.
Я буду грабить RSS с этого сайта. Это просто и быстро.
Пользователь всегда хочет контент. Причем, как можно скорее. Он не привык ждать и не любит этого делать. Поисковый робот, в чем-то, похож на пользователя. Он тоже хочет контент. Правда, на время его выдачи ему, наверное, наплевать, зато его очень волнует отношение полезного контента к общему количеству инфы на странице.
Я подумал, что было бы неплохо совместить выполнение желаний посетителя и поискового бота. Придумалась мне модель, при которой загружается только нужный контент, CSS и JS. А остальные, необязательные части страниц, типа рекламных блоков, дополнительных функций страницы, тяжеловесного дизайна, догружаются при помощи Ajax.
В этой статье напишу как быстро и без проблем сделать догрузку контента и сделать что-то на подобие SSI, но на клиенте, а не на сервере.
Каждый, у кого есть сайт с возможностью обратной связи, рано или поздно сталкивается с проблемой спама. Умные роботы бродят по сети и оставляют рекламу в комментариях, на форумах и везде, куда могут что-то ввести.
Не минула сия участь и меня. Ко мне стали регулярно наведываться спаммерские боты. Не смотря на то, что у меня есть некоторая защита, некоторые все равно умудряются оставлять "комментарии" рекламного характера.
В этой небольшой заметке хотел поговорить о том, как можно защищаться от спаммерских машинок.
Иногда хочется разместить на сайте информацию, добыть которую самостоятельно невозможно. Например, прогноз погоды или последние мировые новости. К сожалению, самостоятельно предсказывать погоду может не каждый (особенно, если делать это более-менее верно), поэтому есть выход: взять эту информацию из надежного источника. Конечно, никто в здравом уме, не станет каждый день копировать прогноз с солидного сайта и ставить его себе, правя исходные коды страницы. Многие стараются автоматизировать этот процесс и пишут программы, которые в народе называются грабберы. О чем же нужно помнить, при разработке граббера?