nocproject.org
06:16
dvolodin:
NOC-1436 gis/geocoding/yandex.py
06:50
Коллеги, доброе утро. Кто подскажет по VC Domains?
06:54
не пойму как vlan поделить на vc domains - по районам/домам или просто абонентские-сервисные и т.д.
06:54
Сколько у тебя административных VC Domains есть столько и создавай. Потом коммутаторы при добавлении по этих доменах надо раскидывать.
06:55
Если MPLS используешь гдето то он разделяет.
06:55
нет, mpls нету, далеко еще
06:56
Также маршрутизаторы могут их делить.
06:57
Если сеть с общей политикой выделения номеров влан от 1 до 4096 то это можно считать одним админ доменом.
06:57
как бы на коммутаторе есть управляющий vlan, абонентский, тв и телефония, предположим я завел их как админ домены, то при заведении коммутатора какой vc domain я должен указать?
06:58
:) default
06:58
Каждый коммутатор (не MPLS) точно принадлежит только к одному VC домену.
06:59
Наверно у тебя всего 1 VC домен. Если его только ты админишь и создаёшь вланы.
07:02
desp: удали все созданные тобой VC домены, оставь только default и в него добавь все коммутаторы которые админишь.
07:03
понял, так и поступлю, спасибо
07:04
еще вопрос, никто не сталкивался, что в MO в vlan_discovery пишет Deferred на всех коммутаторах?
07:26
desp: пересохрани МО или его профиль
07:27
desp: а какие коммутаторы? Какой профиль ты используешь? get_vlans скрипт для него есть?
07:30
Samsung блокирует Windows Update
07:30
dl // 25.06.15 00:27
07:30
Мало нам того хлама с рюшками, которым производители ноутбуков обожают забивать предустановленные системы. Выяснилось, что Samsung стал блокировать Windows Update, поскольку тот мешает самсунговской обновлялке. На вопрос саппорту был получен че
07:30
лол
07:31
профиль пересохранил - не помогло
07:34
get_vlans через debug-script проходит
07:35
А в vc -> vc вланы видно? Появились?
07:36
Импортни в vc -> vc вланы с коммутатора.
07:43
desp: noc.conf ничего не менял в vlan_discovery? enable=true & save=true ?
07:43
Импорт в vc -> vc вланов с коммутатора получился или нет?
07:44
[vlan_discovery] enabled = true save = true change_state =
07:45
импорт работает
07:45
хммм
07:45
а почему так? или я что то не понимаю
07:46
Смотри логи дисковери. Там может матюк есть или get_vlan вообще не запускался?
07:48
в логе, если вручную в MO запустить vlan_discovery - [inv.discovery] Rescheduling job vlan_discovery(18) to 2015-06-26 10:57:28.244776 status=W
07:49
В профиле для твоих MO должен быть vlan discovery
07:50
в профиле VLAN discovery - галочка чтоит
07:57
Добрый день. Подскажите по Alarm Triggers в FM: если не заполнены поля Template и pyRule они не работают? C pyRule еще понятно выбирай что должно будет сделано после сработанного тригера, а вот что выбирать в поле Template и если создавать свой то по какому принципу?
08:02
desp: в sa -> Setup -> Managed objects Profile под "VLAN" в профиле стоит зелёная галочка? И этот профиль вабран в SA -> MO (Role - Object Profile)?
08:04
В SA -> Managed objects -> Discovery что есть в vlan_discovery? Выдели его там и нажми RUN
08:14
что за фигня - правлю МО, сохраняю - а список пустой
08:14
приходится переоткрывать
08:15
прокрути вниз
08:16
common bug
08:19
Мне кажется что без Templates должно работать. По крайней мере пару лет назад так было.
08:19
Это я уже видел, к сожалению там так и не понятно зачем нужно поле Template. Просто вроде указал все поля а на почту алерты не приходят
08:21
а это ещё вопрос, где почта прописана
08:21
08:22
Да, настройка уведомлений -отдельная тема.
08:22
как права доступа на выгружаемые конфиги автоматом поправить ?
08:23
smtp сервер указал, notification group создал, добавил в нее своего юзера, ему указал его почтовый адресс, добавил alarm triggers с созданной notification group - аларм вижу в fm-alarm а в почте ничего нет.
08:24
time pattern тоже проставлен?
08:25
а емайл где проставлен?
08:25
а то два места есть
08:25
(я с этим помучался в своё время)
08:26
и в профиле пользователя и как емайл админа в конфигах нока
08:26
ну именно в профиле пользователя рабочий
08:26
то есть, через кнопку "User profile..."
08:27
там у меня один и тотже емайл указан 2 раза
08:27
счас попробую поиграться с шаблоном - может сработает
08:42
08:43
AleksandrB76: я не уверен что у тебя тригер вообще сработал ;) добавь в пируле запись в лог файл какойто..
08:44
Alarm class RE точно матчит название аварии?
08:45
Ну может в будущем кому-то и поможет ...
08:45
я сам не уверен что он сработал ...
08:45
вопрос - праку по коррелатору так и не добавили в develop версию?
08:45
правку
08:45
AleksandrB76: добавь в пируле запись в лог файл какой-то.. Иначе не отдебажешь!
08:48
ок, будем копать pyRules
08:50
хм...
08:50
а где у нас сейчас живёт обработка Config changed?
08:52
так-то вроде в solutions/noc/default/pyrules/refresh_config.py , но где все связки?
08:56
Оно кажысь через handlers теперь должно всё идти.
08:57
noc.fm.handlers.event.discovery.schedule_discovery
08:57
noc.fm.handlers.event.audit.log_config_changed
08:58
Запускает дисковери для этого MO и записывает в лог... Где эти логи?
09:02
sa/models/interactionlog.py пишет в монгу много интересного, а где в вебе красиво, с фильтрами, это можно просмотреть?
09:10
dvolodin: где-нить расписано про работу всех этих хэндлеров/солюшнов?
09:10
в частности, меня интересует путь Config changed
09:10
dvolodin: где настраиваются права на файлы конфигов которые экспортируются ?
09:11
e_zombie: UMASK :)
09:12
evyscr: а там разве есть какие-то handler'ы?
09:12
в event class'е - есть
09:13
в принципе, я уже всё понял, что хотел
09:21
dvolodin: sa/models/interactionlog.py пишет в монгу много интересного, а где в вебе красиво, с фильтрами, это можно просмотреть?
09:22
Например там будет запись кто и когда похерил конфиг коммутатора..
09:53
В Facts ?
09:53
Вместе с ребутами и прочим?
09:54
там есть interaction log
09:55
Вижу "Command Log"
10:00
Понял, в SA -> Managed Object -> Facts можно просматривать результаты записанные sa/models/interactionlog.py
10:09
хм
10:09
а оно в ком есть?
10:11
нет в фактах interation log'а, вы что?
10:12
фух, стал быть я ещё не до конца сошёл с ума
10:12
command log?
10:14
в нём полно логинов/логаутов нока
10:14
через ивенты вроде проще
10:41
а что ето такое и отчего бывает ? 2015-06-26 13:39:45,549 [noc-classifier] Event 558d2bed7e85c9751be3fd92 has been marked as not disposable by interface profile 'default' (ge-1/1/9)
10:46
Значит таки в "Command Log" пишет вместе с log_cmd с "Security | Audit | Command"
11:11
11:12
модельки для маршрутизаторов Cisco ISR
11:33
Aversant: можно в jira с json
11:33
лучше сгруппировать в несколько issue
11:43
можно в ноке так сделать, чтобы классификатор сам запускался при старте нока, а не командой ./scripts/noc-classifier -f start ?
11:44
dvolodin: просьба посмотреть
NOC-1622 , там дополнения для скрипта Cisco.IOS.get-inventory без него на ISR не определяется материнская плата
11:56
Aversant: в жиру модельки в проект INV, не в NOC
14:29
ой, а че это не по русски?
14:31
rklomp: wrong user/password probably?
14:32
Wrong username/password would give a 403 and not 503?
14:38
збс че
14:39
не вы не обращайте на меня внимания)
14:39
rklomp: create user, garant hom premissions to PM.
14:41
my noc-sync user is alrady super user
14:41
Write that user to noc-probe.conf (noc-sync.conf but may reque aditional premission)
14:41
xetle: ну прочитай, что уже написано
14:41
это 403 будет
14:42
rklomp: anything in noc-web.log?
14:43
any trace? any faild NOC servers in noc-lancher.log?
14:43
/var/noc/log/noc-web.log does not show anything when noc-sync runs
14:43
what happens when you try to get <your_noc_address>/main/sync/Channel1/0/config/ from browser?
14:44
(you have to auth as your noc-sync user before)
14:47
That gives me normal output
14:47
{"config": [], "now": "2015-06-26T16:51:49.223115", "last": null, "expire": null}
14:48
rklomp: look in noc-web.conf: listen = 127.0.0.1:8000
14:48
2015-06-26 16:52:33,473 [noc-web] Listening 127.0.0.1:8000
14:52
i guess you have to check smth like 'netstat -nap | grep 8000' when 503 happens
14:53
tcp 0 0 127.0.0.1:8000 0.0.0.0:* LISTEN 7955/python
14:53
it is listening, but somehow it throws a 503
14:54
503 means like 'too many connections'
14:54
Support -> Crashinfo
14:54
You mast see trace of python..
14:59
what's your distro?
14:59
You see HTTP Error 503: Service Unavailable" in noc-sync.log and noc-probe.log, but noc-web.log is emty?
15:00
yes in noc-sync log, but there is no loggin at the same time in noc-web
15:00
yes nginx
15:00
anything there?
15:00
(in nginx log)
15:01
оно же напрямую в 8000 порт мимо нжинкса идёт.
15:01
no since whe using port 8000 you are not connecting via nginx
15:01
well, it shouldn't
15:01
в порядке бреда
15:01
что у нас ещё остаётся?
15:02
iptables тоже должны работать, иначе через веб бы не отображалось
15:02
restart noc-web: "killall -9 7955"
15:02
noc-lancher woll run it again.
15:02
already rebooted the whole server
15:04
да iptables на lo или 127,0,0,1 также host.deny на python
15:04
уверен глюк или неправельные настройки в NOC!
15:09
rklomp: what yoy try to config? PM or DNS
15:09
DNS
15:09
it is working on my test machine
15:09
but not on this one
15:12
Ah well. Will continue on monday. Thanks for your help so fat
15:12
*far
15:12
Check configs and setups. Main -> Setup -> Sync and noc-sync.conf also user for noc-sync.
Share this page
Share this page: