About Forum Blogs NOC Docs Downloads KB Issues Code CI Registration

nocproject.org

#nocproject.org at irc.freenode.net log.
Back to nocproject.org Back to IRC log index
Date: 12.08.2011
wad_ #
03:29
dvolodin про патч. пока не будет 90 % событий определенно то искать что-то очень не удобно
dvolodin #
03:40
wad_: прямо сейчас наблюдаю 99%
03:40
на 1M событий в сутки
wad_ #
03:42
ну тебе хорошо.. ты сам это все делаешь..
03:43
а мне щас разбираться как это заводить некогда.. а ловить проблемы уже можно...
dvolodin #
03:47
А вот, кстати, и проверю
03:50
> db.noc.events.active.find().count()
03:50
1180993
03:50
> db.noc.events.active.find({"raw_vars.message": /%CSM/}).count()
03:50
3
03:50
вторая операция выполняется около 3 секунд
wad_ #
03:51
у мну первый раз поиск тормозит сильно, а потом не заметно..
03:51
такое ощущение что он базу докачивает в память... :-)
dvolodin #
03:55
неа
03:55
я же говорю - mmap там
wad_ #
03:56
википедия Реальное считывание с диска производится в «ленивом» режиме, то есть при осуществлении доступа к определённому месту.
dvolodin #
03:57
да
03:57
там такой же paging, как и для свопа
03:58
в целом все хорошо, только на соляре пухнут снапшрты :)
03:58
потому как монга не стесняется и гоняет данные как хочет
wad_ #
03:59
zfs?
dvolodin #
03:59
да
wad_ #
03:59
ограничить диск по размерам ?
dvolodin #
04:00
зачем?
04:01
просто ежедневно делаются снапшоты зон
04:01
и перед апдейтами noc
wad_ #
04:01
ааааааа
dvolodin #
04:01
сейчас за день набегает 3 гига изменений
04:04
в целом по фолту - вполне реально натренировать его за неделю
04:04
для конкретной сети
04:04
если там - совсем уж неподдерживаемое железо
wad_ #
04:05
вот еще бы от CUCM чего-то получить :-)
dvolodin #
04:13
а чего, не отдает?
04:13
CCM вроде чем-то делился
04:14
Хотя после pbx`n`sip на кисковскую офисную телефонию не тянет совсем :)
04:15
фолтить телефонию мы будем на следующем этапе
04:15
:)
04:16
гляжу сейчас в потроха SPECTRUM
04:17
по кискам он распознает около 900 трапов
ufir #
04:21
hi
04:21
почему может быть такое, что один скрипт отрабатывается нормально - а другой - нет
04:21
2011-08-12 08:13:20,538 script Cisco.IOS.get_version(core-sw)
04:21
2011-08-12 08:13:21,565 MRT task=19/19 object=core-sw(10.200.200.56) script=Cisco.IOS.get_version status=completed
04:21
2011-08-12 08:13:38,620 MRT task=20/20 object=core-sw(10.200.200.56) script=Cisco.IOS.get_cdp_neighbors status=running
04:21
2011-08-12 08:13:38,621 script Cisco.IOS.get_cdp_neighbors(core-sw)
04:21
2011-08-12 08:15:40,234 script(Cisco.IOS.get_cdp_neighbors,core-sw,**{}) failed: Cancelled
04:21
2011-08-12 08:15:40,237 MRT task=20/20 object=core-sw(10.200.200.56) script=Cisco.IOS.get_cdp_neighbors status=failed code=20 error=Cancelled
dvolodin #
04:25
а если руками прогнать?
ufir #
04:29
дайте ссылку на доку где написано как это сделать ;)
wad_ #
04:43
ufir> http://redmine.nocproject.org/boards/3/topics/1310
04:44
или проще ./noc debug-script get_interfaces 192.168.13.103
inoyat_kayumov #
05:52
2011-08-12 09:51:41,589 event_proxy failed: code: ERR_INTERNAL
05:52
text: "RPC Call to event failed"
zi_rus #
06:03
какие параметры определяет скрипт get_interfaces
wad_ #
06:09
там много чего http://redmine.nocproject.org/boards/8/topics/1540
ufir #
06:11
в Service Activation › Managed Objects › нажимаю на "Configuration Managed" - и получаю трейс http://pastebin.com/s2vXqDRW куда копать ?
zi_rus #
06:16
возможно, потому что конфиг еще не забрался, Configuration Management -> отметить нужный объект -> Action Get now
06:16
"Configuration Managed" - значит, что с этого объекта будет забираться конфиг скриптом get_config
06:17
main - shedules - cm.config_pull - можно настроить чтобы конфиги забирались по расписанию
ufir #
06:26
н-да.... застрял.
06:26
2011-08-12 10:21:58,457 MRT task=33/33 object=core-sw(10.200.200.56) script=Cisco.IOS.get_config status=running
06:26
2011-08-12 10:21:58,457 script Cisco.IOS.get_config(core-sw)
06:26
2011-08-12 10:21:58,474 MRT task=33/34 object=7609-LAZ(10.200.203.1) script=Cisco.IOS.get_config status=running
06:26
2011-08-12 10:21:58,475 script Cisco.IOS.get_config(7609-LAZ)
06:26
2011-08-12 10:23:59,932 script(Cisco.IOS.get_config,core-sw,**{}) failed: Cancelled
06:26
2011-08-12 10:23:59,933 Map task 33 suddently disappeared
06:26
2011-08-12 10:23:59,933 script(Cisco.IOS.get_config,7609-LAZ,**{}) failed: Cancelled
06:26
2011-08-12 10:23:59,934 Map task 34 suddently disappeared
wad_ #
06:40
ну дык debug-script на get_config и смотреть чего ругается
ufir #
06:49
wad_ в этом случае получаю "Error: Object not found: 10.200.200.56"
06:49
а, понял
Dmitry1 #
06:49
там должна быть строчка CURL
ufir #
06:50
2011-08-12 10:49:47,610 Tick
06:50
2011-08-12 10:49:47,964 [TELNET: 10.200.203.1] on_read: '\r\n% Error in authentication.\r\n\r\n7609-laz>'
06:50
2011-08-12 10:49:48,964 Tick
Dmitry1 #
06:50
типа telnet://имя_пользователя:пароль_пользователя@10.200.200.56
wad_ #
06:51
либо объект из базы
ufir #
06:53
скрипты заработали, спасибо
07:02
но при получении конфигов опять трейс http://pastebin.com/wp5dwmJn - каким скриптом это отладить ?
07:03
в дебаге я вижу что все отрабатывает
inoyat_kayumov #
07:04
vcs_path в noc.conf поправьте
ufir #
07:10
Exception Type: CalledProcessError
07:10
Exception Value: Command '['/usr/bin/hg', 'mv', u'~', u'core1']' returned non-zero exit status 255
07:12
при пустой repo path мы, соответственно получаем ошибку. а при указании чего-либо - трейс
inoyat_kayumov #
07:12
а права на репу?
07:13
и еще - hg точно по тому пути лежит?
ufir #
07:14
drwxrwxrwx. 2 noc noc 4096 Aug 12 11:13 config
07:14
да, разумеется
07:14
. /var which hg
07:14
. /usr/bin/hg
07:15
про права первым делом подумал..
inoyat_kayumov #
07:18
странно - у меня подобное вылечилось правкой пути к hg и рестартом процессов нока
ufir #
07:20
вот сейчас рестартнул - все заработало, благодарю
inoyat_kayumov #
07:20
недавно тут обсуждали - но все равно мнения остались разные - на предмет того как и под каким юзером работать:
07:21
у меня так - нок под одноименным юзером, но его старт/стоп - из-под рута. обновление нока из репы - опять из-под нок
ufir #
07:21
ой, и конфиги с семитонников распрекрасно слились ;)
07:22
да, я стартую тоже из под рута
inoyat_kayumov #
07:22
как дойдете до игр с Peering Management - отпишитесь плз
ufir #
07:24
обязательно ;) благо этого добра хватает
inoyat_kayumov #
07:27
ufir: у вас насколько я помню - центос? не напишите краткий how-to по установке?
07:28
типа http://redmine.nocproject.org/projects/noc/wiki/InstallationDebian6
ufir #
07:28
Хорошо, попробую. только под центос 5.6 у меня так и не получилось завести noc project, под 6 - без проблем, но с рядом нюансов
inoyat_kayumov #
07:28
вот как раз ньюансы и интересны
dvolodin_ #
07:37
~ он разворачивать не будет - полный путь надо
07:38
inoyat_kayumov: а что с peering management?
07:39
AS49813 у нас на нем жила
inoyat_kayumov #
07:58
не совсем с ним - у нас "в голове" 12406 - с которой проблемы - точнее с ее поддержкой в ноке
gnu-linux #
08:04
Вышла замечательная свободная билинговая система http://www.abills.net.ua/ наконец они сертифицировали коммерческую версию в РФ.
08:05
Так что для провайдеров выбор биллингов пополнился ещё одним тяжеловесом в лучшем смысле этого слова.
08:07
Он тоже может управлять коммутаторами Cisco, ZyXEL, DLink строить staticvlan и есть интерактивные карты...
08:07
Система замечательно спроектирована, очень хорошо продумана но на перле... а я люблю питон.
dvolodin_ #
08:09
inoyat_kayumov: эээээ, да ну ладно
08:09
у нас на ноке висела 12404
08:09
правда с IOS AR
08:09
gnu-linux: можно подумать на тему интеграции с ними
08:10
смысл им делать provisioning/fault management/inventory у себя?
gnu-linux #
08:11
У нас общего только BSD лицензия.. Оно больше похоже на бухгалтерию, кучу отчётов счетов, банковских платёжных систетем...
dvolodin_ #
08:11
я в курсе
08:11
им надо делать активацию сервисов как-то
gnu-linux #
08:11
В зависимости тянет пол CAPAN
08:12
ОНО НА ПЕРЛЕ
dvolodin_ #
08:12
у нас это явно получше будет
08:12
да пожалуйста, хоть на pl/brainfuck в постгресе
08:12
SOAP запрос можно и из перла кинуть
gnu-linux #
08:13
Лучше вам с ним поговорить...
ufir #
08:14
inoyat_kayumov ну вообщем я ставил так http://pastebin.com/DTa4rtQ5 если вкратце. работает, ошибок нет
dvolodin_ #
08:16
ufir - на wiki это
zi_rus #
08:31
у кого-нибудь есть в сети длинки 3526?
ufir #
08:39
у меня раньше СОРМ на таких был ;)
08:39
а так есть несколько
`kk #
08:43
zi_rus, есть
zi_rus #
08:43
`kk, сможешь проверить snmp 1.3.6.1.2.1.2.2.1.7
08:44
snmpwalk -v 2c -c <community> <ip> 1.3.6.1.2.1.2.2.1.7
dvolodin_ #
08:45
старые добрые 3526
08:46
похоже, это самый живучий свич у них
`kk #
08:46
zi_rus, вывод тебе ?
08:46
или чего
08:46
отрабатывает норм
zi_rus #
08:47
просто факт, оно должно было показать ifAdminStatus
08:47
там все правильно
08:47
?
`kk #
08:48
да
08:48
Boot PROM Version : Build 5.00.009
08:48
Firmware Version : Build 6.00.B48
zi_rus #
08:49
все нормально значит
08:49
длинк поддерживает стандартные мибы как и написано в спеке
08:53
подскажите, что можно в nginx подкрутить, чтобы он не так жестоко кешировал. а то обновил нок, перезапустил его, а вывод скриптов как до обновления
08:53
и это не браузер, проверял в трех разных
dvolodin #
08:54
он не кеширует пока его не попросить
08:54
https://spreadsheets.google.com/spreadsheet/ccc?key=0AphXXSAPdVHxdGtSSjVKNEMwOXMyRmFzWnRLOEhKOEE&hl=en_US
08:54
вот, наш прогресс
08:55
коллеги, классов разных уже дофига, присылайте правила классификации
gnu-linux #
08:55
zi_rus: у меня штук 10 DES-3526 будет...
zi_rus #
08:56
мы уже проверили
08:59
dvolodin, тем не менее в консоли через дебаг одно, а в ноке другое
dvolodin #
08:59
?
zi_rus #
09:00
get_inteface_status. обновили чтобы показывал состояние только физических портов
09:01
./noc debug-script DLink.DxS.get_interface_status... показывает как надо, а в веб показывает кучу вланов и прочего мусора
dvolodin #
09:03
эээ
09:03
активатор перезапустили?
09:03
при обновлении скриптов надо активатор перезапускать
zi_rus #
09:04
весь нок перезапускал
09:04
/opt/noc/scripts/noc-launcher.py stop
09:04
/opt/noc/scripts/noc-launcher.py start
_4ePTeHok #
09:16
доброго.
wad_ #
09:27
./noc events -c Unknown | Syslog -a reclassify работает ОООООчень медленно .. и машина почти раком стоит....
dvolodin #
09:28
насколько медленно?
wad_ #
09:29
20к записей... работает уже почти 2 часа
09:30
меня большеволнует что машина тормозит ... виртуалка 4 ядра...
09:30
4гб памяти быстрые винты....
dvolodin #
09:36
лажа какая-то
wad_ #
09:47
угу
09:48
а где поглядеть скорость?
dvolodin #
09:54
mongostat что позазывает?
09:54
в локах все?
lexus-omsk #
10:10
вопрос по логике алармов: есть ping failed для объекта и есть link down на родительском объекте... кто из них будет root причиной?
10:10
Или зависит от причины пропадания пинга, которую мы изначально не знаем
10:11
допустим, подох свитч и из-за этого упал линк в его сторону... или порвали оптику, поэтому упал линк и пропал пинг поэтому
wad_ #
10:11
нету локов
gnu-linux #
10:16
Вот так С биллинга по SNMP рулят коммутаторами http://abills.net.ua/wiki/doku.php/abills:docs:modules:snmputils:ru
wad_ #
10:17
о начали локи валится до 15 %
ufir #
10:19
есть у меня несколько десятков каталистов в разных районах. вот добавил я один из них в managed objects, прописал все параметры - а можно мне теперь этот объект клонировать, ибо различаются они у меня только по именам/ip-адресам ?
dvolodin #
10:21
да
10:21
там save as new есть кнопочка
10:21
или из CSV файла залить
10:22
lexus-omsk: когда будет топология в базе, то аварией будет link down
10:22
последствиями - все отлетевшие пинги
10:23
http://redmine.nocproject.org/projects/noc/arch_decisions/show/5
ufir #
10:23
понял, спасибо
dvolodin #
10:23
когда придумаем формулу - если будет много отлетевших пингов, будет расти и приоритет
lexus-omsk #
10:24
я ручками причину сейчас указываю, пока нет топологии... вчера ещё смс оповещение тестировал, опять же из-за отсутствия топологии куча смс вместо одной главной полетела
10:25
так забанили на шлюзе email 2 sms похоже )
dvolodin #
10:25
ну да
10:25
все постепенно :)
_4ePTeHok #
10:39
мля, полсерверной китайцев, это феерично.)
10:40
телеелевизионщики у нас там оборудование поставили, видать сами не разобрались, выписали китайцев)
Dmitry1 #
10:40
что они у тебя в серверной делают?
zi_rus #
10:40
размножаются
_4ePTeHok #
10:41
в китайской технике, без китайца неразберешься ж)
Dmitry1 #
10:41
Так попроси их, сожет они тут же все известные баги в прошивках исправят?
_4ePTeHok #
10:41
разве что внутрь хуовея залезут, пакеты руками фовардить)
10:41
беда в том, что нету у нас хуовея)
dvolodin #
10:52
у каждого китайца есть свой мааааленький хуявей
10:52
можешь попросить показать ;)
_4ePTeHok #
10:52
гг, в штанах поди прячет да?
dvolodin #
10:52
ага
_4ePTeHok #
10:53
не, я как то традиционной ориентации)
dvolodin #
10:53
шутки шутками а я несколько лет назад ходил в офис хуавея в Крылатском согласовывать схемы организации связи для МгМн
10:53
Сам в Строгино живу, решил пешочком прогуляться через троице-лыково
10:53
там минут 45 топать
10:54
так и приперся к ним в свой ДР с утра :)
10:54
Кубик на несколько этажей битком набит китайцами
10:55
со всякими милыми аттрибутами вроде послеобеденного сна и групповых прогулок по кругу
10:55
весь зал реально после обеда достает матрасики и падает на пол поспать минут 40
10:55
и по двору кругами как в тюрьме ходят
10:58
незабываемые ощущения :)
10:59
плакатики типа "не болтай, за тобой смотрит враг из ZTE"
`kk #
11:00
мило -)
dvolodin #
11:00
ага
11:01
они еще мелковаты
_4ePTeHok #
11:01
=))
dvolodin #
11:01
стоишь в корридоре, а вокруг тебя копошится мелюзга всякая, суетится
_4ePTeHok #
11:01
хех, вот и у меня сегодня ДР, и я увидел китайцев - это судьба ITшника?)
dvolodin #
11:01
поздравляю
11:01
:)
_4ePTeHok #
11:01
спасиб)
`kk #
11:01
hb -)
_4ePTeHok #
11:02
thnx)
`kk #
11:02
главное не смотри на индусов)
dvolodin #
11:02
да ладно тебе
11:02
ребята с TAC Force10 - милейшие люди
11:03
мы как-то раз сколкнулись с packet loss'ом на exascale
11:03
реально пропадало несколько пакетов в час
11:03
но этого достаточно, чтобы обвалился корейский говнософт
11:03
началось днем
11:04
к вечеру локализовали у себя, что причина в e-шке
11:04
сделал case, доехал до дома
11:04
сначала мы с индусом мексиканского происхождения и по имени Хосе сидели по 5 утра
11:05
проверили фабрику, навесили счетчики
11:06
Потом Хосе устал и запросился домой, сидели с Кумаром уже из Индии
11:06
к 9 утра доперли
11:06
к 11 добили нафиг
11:07
всю ночь читал опусы по индуизму и значительно продвинулся в понимании индусов :)
`kk #
11:08
нескучная ночка
dvolodin #
11:08
утром задавал всем вопросы - всякий ли кришна является аватаром вишну?
11:09
`kk: мы с этим ящиком не одну ночку в обнимку просидели
_4ePTeHok #
11:09
сидели с Кумаром - это зачотно)
`kk #
11:09
_4ePTeHok, ага -)
dvolodin #
11:09
http://force10networks.com/products/exascale.asp
11:10
освоил ящик, можно сказать, как облупленный
11:11
меня даже научили проваливаться там в DDD и дебажить netbsd'шное ядро
11:11
:)
`kk #
11:11
весёлый ящик
dvolodin #
11:12
И с SRX5600 juniper'овским тоже наобнимались
11:12
там софт поначалу совсем глючной был
`kk #
11:12
пока мы спим - ты ищешь баги-)
dvolodin #
11:15
уже нет
11:16
но геймеры-задроты даже не подозревали, какой ценой им давались их рейды и осады
11:16
;)
_4ePTeHok #
11:16
Дим, а затею с общей KB не похоронили еще?
11:16
нужное ведь дело
dvolodin #
11:16
не похоронили
11:16
я мозгую
_4ePTeHok #
11:16
а, ок
dvolodin #
11:16
на фоне опусописательства на хабре поперли мысли
11:17
я уже додумался до социальной сети для роботов, объединяющую системы fault management в разных сетях
_4ePTeHok #
11:17
=)))
11:18
они поработят мир?)
11:18
так и до скайнета недалеко)
11:18
а вообще прикольно - соц сеть для роботов)
11:18
так и представляешь как хуовей постит на стенку вконтактике какую нить хрень)
dvolodin #
11:19
не
11:19
NOC, фолтящий juniper объясняет сородичу на кисках, какие чудные косяки он словил с MPLS :)
_4ePTeHok #
11:20
=))) забавно ведь
dvolodin #
11:20
А если без шуток - возможна P2P система для расшаривания опыта
11:20
и KB в том числе
11:21
и уже из нее обновлять правила в репо
zi_rus #
11:21
stand alone систему бы до ума довести
dvolodin #
11:22
а ее это вообще никак не касается
11:22
:)
zi_rus #
11:22
это отвлекает усилия от нее
dvolodin #
11:23
нисколько
11:23
я обычно отвожу определенное время на произвольные фантазии и записываю всякий бред
_4ePTeHok #
11:26
zi_rus, дык подключайтесь
11:26
чего все на Диму сваливать
zi_rus #
11:27
языки надо изучать, некогда
_4ePTeHok #
11:27
вот всем некогда)
11:28
а получить готовый и вылизанный продукт нахаляву хочется)
zi_rus #
11:28
а кому не хочется?
_4ePTeHok #
11:29
ну вопрос в том, что к хотелке надо и усилия прикладывать. Обычно либо мозги/руки, либо таки финансы)
zi_rus #
11:29
а где же халява?
_4ePTeHok #
11:30
халява в том, что не с нуля сами делаете)
dvolodin #
11:31
кому надо финансы прикладывают и сидят тихо :)
11:31
кто делал патчик для NetPing?
_4ePTeHok #
11:31
дак и я о том же
ufir #
11:41
если у меня к примеру на каждый район выделена сеть управления /24 - то мне надо создавать столько же аггрегаторов ?
11:41
или я перепутал
dvolodin #
11:42
активаторов?
ufir #
11:43
да, да
dvolodin #
11:43
да нет, хватит пула из 4 на одном серваке
ufir #
11:43
ошибся
dvolodin #
11:43
сколько железок всего?
ufir #
11:43
около 2000
dvolodin #
11:43
одного пула хватит
ufir #
11:44
я там не нашел такое - пул активаторов
`kk #
11:44
ufir, длинк3028 есть ?
ufir #
11:44
или мне создать один, допустим с маской /16 ?
11:45
`kk остались только 3010
`kk #
11:46
просто у 3028 на старых прошивках телнет еле работает.
11:46
напарывался на это -(
11:46
и get_confiig по таймауту отваливался
ufir #
11:46
а noc работает с дсламами хуавей ?
11:47
`kk а в каком конфиге настраиваются эти таймауты ?
`kk #
11:47
в профиле воде. на вскидку не помню
dvolodin #
11:52
ufir: активаторы никак с масками не связаны
11:52
это просто демон
11:52
который ходит с какого-то адреса
ufir #
11:52
тогда зачем ему диапазон адресов ?
dvolodin #
11:53
на случай если он из на ната пробивается
ufir #
11:53
теперь понял
dvolodin #
11:54
а адреса задаются на managed obоусеэf[
zi_rus #
11:56
где-где?)))
ufir #
11:57
ну ты понел (С)
Dmitry1 #
12:34
чем ближе к концу недели, тем больше флейма
12:35
Вставлю и свои пять копеек. Есть новая прошивка на DES-3028. С Ченжлог. Налетай!
ufir #
12:39
что означает эта ошибка:
12:39
2011-08-12 16:07:23,474 MRT task=83/241 object=cct01-yla-s19(10.200.200.39) script=Cisco.IOS.get_mac_address_table status=failed code=15 error=All activators
12:39
are busy in pool 'noc'
`kk #
12:41
Dmitry1, кидай !
dvolodin #
12:42
ufir: у активатора есть лимит на количество задач, которые он выполняет
12:42
настраивается в конфиге
ufir #
12:42
понял
dvolodin #
12:43
надо подобрать, сколько одновременных скриптов он будет выполнять, чтобы систему раком не поставить
ufir #
12:43
подбирается, как я понял - экспериментально, или есть рекомендации ?
dvolodin #
12:45
~50 для начала
12:45
max_scripts в etc/noc-activator.conf
12:46
Если прописать такое в noc-launcher.conf
12:46
[noc-activator]
12:46
enabled = true
12:46
user =
12:46
config.0 = etc/noc-activator.conf
12:46
config.1 = etc/noc-activator.conf
12:46
config.2 = etc/noc-activator.conf
12:46
config.3 = etc/noc-activator.conf
12:46
то будет запущено 4 активатора, которые склеются в пул
12:47
активаторов лучше пускать пропорционально числу ядер
ufir #
12:49
здорово придумано ;) благодарю за подсказку
dvolodin #
12:54
с пулом надежнее
12:54
для начала можно пустить активаторов по количеству ядер
ufir #
12:55
я так и сделал, запустил 4 пула
13:40
http://redmine.nocproject.org/projects/noc/irclog/2010.12.10.html - а как сделать "adjust kernel limits or run activator from root" ?
_4ePTeHok #
13:46
noc-launcher.conf -
13:46
[noc-activator]
13:46
enabled = true
13:46
user = root
ufir #
13:47
а это не криво ли с точки зрения секурности ?
13:48
_4ePTeHok ога,thx - работает хотя ... можно и iptables наверное
_4ePTeHok #
13:49
ну иначе надо крутить на бинд системного порта не от рута
ufir #
13:50
т.е. чтобы нок ловил логи от моих цисок, мне надо настроить listen_syslog - а сам сислог вырубить чтоли ?
_4ePTeHok #
13:54
ну на бзде у меня оно не требует отключать, так как не слушает в дефолте
13:54
а так да
Dmitry1 #
13:58
Народ, кто сможет накидать мне ивентов для D-LInk по STP Loopdetect и DULD
Tweet
Share this page
Share this page: Tweet