По теме из базы знаний
- Получение данных из Wialon Hosting через HTTP запросы (Remote API)
- Сервер 1С:Предприятие на Ubuntu 16.04 и PostgreSQL 9.6, для тех, кто хочет узнать его вкус. Рецепт от Капитана
- Разработка и сценарное тестирование с Vanessa-ADD. Установка инструментов. Запись действий пользователя и выполнение сценариев
- Служебные http-сервисы, которые работают даже в заблокированной базе
- Быстрое конфигурирование серверов с Ansible
Ответы
Подписаться на ответы
Инфостарт бот
Сортировка:
Древо развёрнутое
Свернуть все
Для ограничений вида *.vasyapupkin.ru можно воспользоваться программными сетевыми экранами или прокси серверами со списком фильтров, ну и аппаратные ограничения нельзя списывать со счетов - например ограничения на роутере.
Насколько я знаю, все надо прописывать.
djsi пишет:
Заметил такую штуку. После проверки компа Drweb cureit правленный hosts доктор вэб убирает в свой карантин и подменяет своим
Подозревает, что вредоносные программы изменили файлы в своих нехороших целях. И это не только вирусы, возможны крэки. Кстати, если посмотреть методы ухода от проверки обновлений программ Adobe, предлагаемых "сторонними разработчиками", то в файл hosts нужно добавить целую кучу доменов, а не одну маску. А эти ребята систему хорошо знают. Этот пример, как бы, отвечает и на вопрос топик-стартера.
Заметил такую штуку. После проверки компа Drweb cureit правленный hosts доктор вэб убирает в свой карантин и подменяет своим
Если под линукс то можно использовать SQUID:
Для этого создаем черный список для самого squid.
Открываем на редактирование файл конфигурации squid
nano /etc/squid/squid.conf
Ищем в файле блок с acl записями и добавляем acl запись черного списка, с получением файлов из файла
acl blacklist url_regex "/etc/squid/blacklist.txt"
Создаем тектовый файл со список запрещенных шаблонов или адресов сайтов. В нашем случае - это домены "сохранено в кэше" поисковиков google и yandex.
nano /etc/squid/blacklist.txt
webcache.googleusercontent.com
hghltd.yandex.net
gjhyj
И создаем в файле /etc/squid/squid.conf правило запрещение доступа для сайтов перечисленных в категории blacklist. Для этого ищем запись http_access allow password и до нее вписываем строчку
#комментарии
http_access deny blacklist
http_access allow password
После сохранения настроек перезапустите squid
/etc/init.d/squid restart
Для этого создаем черный список для самого squid.
Открываем на редактирование файл конфигурации squid
nano /etc/squid/squid.conf
Ищем в файле блок с acl записями и добавляем acl запись черного списка, с получением файлов из файла
acl blacklist url_regex "/etc/squid/blacklist.txt"
Создаем тектовый файл со список запрещенных шаблонов или адресов сайтов. В нашем случае - это домены "сохранено в кэше" поисковиков google и yandex.
nano /etc/squid/blacklist.txt
webcache.googleusercontent.com
hghltd.yandex.net
gjhyj
И создаем в файле /etc/squid/squid.conf правило запрещение доступа для сайтов перечисленных в категории blacklist. Для этого ищем запись http_access allow password и до нее вписываем строчку
#комментарии
http_access deny blacklist
http_access allow password
После сохранения настроек перезапустите squid
/etc/init.d/squid restart
zipercool пишет:
я имею ввиду будет ли винда перекрывать вот так все поддомены
127.0.0.1 *.vasyapupkin.ru
я имею ввиду будет ли винда перекрывать вот так все поддомены
127.0.0.1 *.vasyapupkin.ru
не изобретайте велосипед! кесарю-кесарево! у файла hosts совсем иное предназначение!
если требуется ограничить/запретить доступ к к.-либо ресурсам - так прямо и спросите:
у меня сеть 5 компов без домена, все ходят в инет через адсл-роутер d-link 200, как всем(или только Пупкину)ограничить доступ на *.vasyapupkin.ru ... с минимальными затратами (деньги/время)?
а вдруг модель роутера позволяет включить подобное ограничение? или... вариантов ведь много может быть..
как спросите - такой и будет ответ...
Для получения уведомлений об ответах подключите телеграм бот:
Инфостарт бот