Руководство по самостоятельному созданию сайта для музыканта или диджея - Строганов Александр
Не скачивайте подобные программы (браузеры, серверные программы) откуда попало – только с сайта разработчика! Всегда! И всегда обновляйтесь. Из личного опыта и многочисленных советов от знающих людей – не используйте браузер Internet Explorer – на сегодняшний день и довольно давно уже так – это самый уязвимый браузер и просто рай для злоумышленников.
– Устаревший антивирус или вообще его отсутствие
Если вы (ваш сотрудник) работаете через FTP, SSH или другие протоколы, на компьютере должны быть установлены современные средства защиты от вирусов. Помните, что вирус может попасть к вам (на компьютер) с другого сайта, а затем от вас перейти и на ваш сайт. Всегда используйте антивирус с ежедневно обновляемой базой.
– Код из непонятного источника
Откуда, скажете, вы у меня появится такой код, если я все использую как надо и беру из проверенных источников. Ну, например, рекламный баннер партнерской программы. Да я чуть забегаю вперед, мы чуть позже затронем с вами тему монетизации сайта, но тем не менее – всегда помните о том, что использовать нужно только проверенные модули.
Итак, подведем итог всему вышесказанному.
Как вы поняли – ничего сверхстрашного нет, главное соблюдать несложные правила и регулярно их выполнять.
1. Периодически менять пароли админки, FTP, SSH и других сервисов.
2. Не хранить пароли в специальных программах (ручное или в блокноте).
3. Очень внимательное отношение к любому коду, размещаемому на сайте.
4. Актуальный и всегда обновленный антивирус на компьютере.
5. Обновленная последняя версия CMS сайта и использование только проверенных плагинов и модулей.
6. Исследование кода сайта на предмет появления подозрительных элементов.
7. Отслеживание появления непонятных новых файлов в папках сайта.
8. Использоание современных и последних версий браузеров при администрировании
9. Выполнение всего комплекса вышеперечисленных мер всеми, кто имеет доступ к сайту.
Самое лучшее решение – это разработка комплекса мер – система доступов для работы с сайтом, постоянно-периодическая смена паролей и антивирусных программ. Выполняя все вышеперечисленные меры вы обезопасите себя и свой сайт от большинства вирусных угроз, а соответственно избавите себя от проблем с посетителями и поисковыми системами.
Лучше всего обезопасить себя до того, как «грянет гром», чем разгребать последствия.
Резервная копия сайта
Зачем создавать резервную копию сайта, надеюсь, объяснять не нужно. То, что делать ее лучше после каждого нового размещения материала, а также перед большими или значительными обновлениями, тоже, думаю понятно. Давайте перейдем непосредственно к самому процессу.
Способы сохранения резервных копий
1. Самое простейшее – это в самой системе Worpress
Все просто – заходите в админку сайта, выбираете инструменты – > экспорт (смотрите скриншот), далее ставите галочку «все содержимое» и скачиваете файл, который можно потом развернуть на другом сайте под управлением вордпресс. Один минус данного метода – он копирует только текст. А все картинки и любой контент сохраняются в виде ссылок на исходники. То есть данный метод отлично подходит для сохранени уникального текста, но не для резервной копии сайта целиком.
2. Полная резервная копия сайта
2.1. Способ 1
Покажу на примере своего хостинга (где у меня располагается сайт) http://www.red-nuts.com/reg.
12
Заходите в управление хостингом, далее в менеджер файлов и в папку www, откуда далее скачиваем к себе на компьютер папку с сайтом. Скачается в итоге архив с разрешением *tgz.
2.2. Способ 2
Практически каждый хостинг автоматически сохраняет копию сайта в определенный период. Чем мне нравится http://www.red-nuts.com/reg
13
Но и этот метод использую, на случай, если на компе все вдруг тю-тю. В общем, я как тот чукча из анекдота с двумя билетами и проездным))) В таком деле, да еще когда у тебя материалов огромное количество за пару лет скопилось на сайте – лучше перебдеть, чем недобдеть, на мой взгляд =)
Второй способ еще проще – ничего никуда скачивать не нужно – все есть на сервере хостера. Заходите и формируете копию и скачиваете или сразу востанавливаете с нужной даты. Смотрите скриншоты =)
Как видите, все довольно просто и занимает немного времени, зато данная процедура при регулярном пользовании может сэкономит вам кучу времени и нервов в случае какого либо сбоя в системе.
Robots TXT
Продолжаем настраивать наш сайт!
Для того, чтобы ваш сайт правильно индексировался и поисковые системы брали только нужную информацию (ну к примеру зачем им ваши данные админки или служебных файлов? – я тоже думаю ни к чему) необходимо создать файл robots. txt и загрузить его в корневую папку сайта.
Как вы уже наверняка догадались файл является неким указателем или инструкцией для поисковых роботов. Словно карта, он указывает – куда ходить и что индексировать можно, а куда поисковым роботам ходить не нужно.
Сам файл не влияет на ранжирование (поисковую выдачу) сайта, поэтому многие принебрегают им и не запариваются с установкой вовсе. В какой то степени – не очень обдуманно, раскажу чуть подробнее.
Это достаточно мощный инструмент, с помощью которого можно, к примеру, вообще целиком запретить индексацию вашего интернет ресурса, можно частично, можно ограничить круг поисковиков и одним разрешить, другим запретить индексацию сайта или отдельных его страниц. Очень полезен данный инструмент также и во время реконструкции или переделки сайта, когда вы на время можете запретить индексацию.
Более того, файл роботс останавливает и некоторые виды спам роботов, которые сканируют сайт на предмет наличия и последующего сбора электронных адресов в целях последующего их использования для спама. Ну и конечно же, от поисковых машин с помощью этого инструмента можно также легко скрыть разделы сайта, предназначенные для определенного круга пользователей – то есть страницы «не для всех» с приватной и закрытой от общего доступа информацией.
О том, каким образом правильно сделать и настроить данный файл мы и поговорим кратко в данной публикации.
Вообще robots достаточно просто написать вручную без каких либо конструкторов, которых к слову по интернету море. Весь процесс сводится к прописыванию спецкоманд в обычном файле блокнота. Потом этот файл сохраняем под именем robots и закачиваем в корень нашего сайта. В итоге он должен быть у нас по адресу ваш-сайт.ru /robots. txt
Сам файл я подготовил для вас, поэтому изобретать велосипед вам не нужно – просто слова» «ваш-сайт.ru в этом файле нужно заменить на адрес вашего сайта (без www и http://). Взять готовый файл и залить к себе на сервер можете здесь: http://red-nuts.com/sitedj/robots.txt
Конечно, вы можете сами полностью сделать с нуля свой файл robots. txt, благо информации по этому вопросу в интернете навалом, я остановлюсь лишь на основных директивах, которые в нем используются и в двух словах объясню для чего они применяются.