nocproject.org
06:31
hi all
06:31
after last update discovery process not working
06:31
how can i resolv?
06:45
06:46
loglevel = debug
07:04
07:05
новая инкарнация башни
07:12
dvolodin: ого. Это что же, теперь в десять раз меньше кликать?
07:13
:)
07:13
нет, это я вместо extjs прикрутил webix
07:14
задолбался ловить эту плавающую багу с раскладками
07:14
07:18
dvolodin: а как оно будет себя вести на толстых таблицах?
07:19
нормально будет вести
07:21
несколько тысяч записей оно влоб прогружает и мотает
07:21
Это интересненько)
07:21
А то у меня есть таблички годовой глубины
07:22
я делаю рыбу для приложения
07:22
там будет серверное api с json-rpc
07:23
и клиентская морда
07:23
делаешь свой сервис, отдаешь в api нужные данные - в морде ловишь
07:25
а там - насколько фантазии хватит
07:25
между приложением и сервером - json rpc
07:30
при этом ты можешь использовать models NOC'а
07:31
или свои добавлять
07:31
у меня всего один вопрос - когда микросервисы можно будет в продакшн выпускать, и что будет с процессом миграции
07:32
filonov: я сейчас развертываю опытную зону
07:32
по результатам тестирования будет видно
07:33
миграция обычных данных - штатная
07:33
скорее всего, процесс установки будет выглядеть так
07:33
1. дампим базы
07:33
2. ставим микросервисы
07:33
3. разматываем базы
07:34
4. деплоим еще раз
07:34
может быть и более простой подход заработает - ставим башню, цепляем к ней существующую ноду и деплоим
07:35
но там придется донастраивать руками
07:35
и опять же -- миграция из MMAPv1 в WT все равно через дамп/рестор
07:36
точно абсолютно - данные pm придется перетаскивать руками и вообще с ними разбираться
07:36
в микросервисах метрики привязаны к сервису
07:37
dvolodin: такой вопрос. очень хочется почистить в монге mac_log. Но remove() - не выход. Как это можно сделать побыстрее?
07:37
лучше ttl index навернуть
07:39
он как раз и нужен для такого вот старения данных
07:39
И как
07:39
это сделать?
07:48
вот так - всигда
07:51
посмотрел я на netdisco и решил что в жопу пока что инвентори.
07:52
хотя мх80-р добавить получилось, не дались mic'и
08:32
zi_rus: я пока только поставил себе NOC. В нем нету ни одного MO. Куча непоняток с новыми веяниями.
08:33
а кто-нибудь знает можно ли в ssh_config вписать баннер per host?
08:33
не в sshd
08:33
а именно в клиента
08:33
чтобы напоминал
08:33
типа на этой железке не стандартный пароль
08:33
посмотри там
08:34
ну и в таком духе
08:51
zi_rus: man ssh_config /LocalCommand
08:55
filonov: мимо
08:55
Specifies a command to execute on the local machine after successfully connecting to the server.
08:55
мне надо before
08:56
у меня проблема чтобы помнить на какой железке какой пароль
08:56
мне нужно в моем ssh клиенте предупреждение
08:56
типа здесь работает такакс
08:57
а тут доменный пароль
08:57
alias ssh=mycoolwrapper
08:57
час от часу не легче
08:57
видимо проще баннер на железке поправить
08:57
на всех железках
08:57
Так я бы сказал правильнее
09:00
они не в моей юрисдикции
09:00
придется уговаривать чтобы поправили
09:04
dvolodin: с ttlIndex-ом монга сожрала еще полтора гига и система ушла в своп
09:04
dvolodin: я тебе через саппорт трейс отрепортил. скажи это мой косяк опять? это из Network map
09:05
хотел картинку с загрузкой линков увидеть
09:05
а не показывает
09:09
эмм
09:09
я один посылал
09:09
dvolodin: EXCEPTION: <type 'exceptions.AttributeError'> 'Cursor' object has no attribute 'first'
09:17
zi_rus: ошибка это
09:19
при извлечении данных pm
09:34
[vv
09:34
хмм
09:34
графана рисует
09:35
dvolodin: данные в базе есть. что ему может мешать?
09:36
да не, графана рисует
09:36
ошибка там где-то
09:44
dvolodin: и на нетвок карте была бы интересной возможность отображения лагов как один линк
09:44
а то по 4-8 лямок сильно схему будут нагружать
09:45
zi_rus: возможно, да
09:46
типа кнопочки -- схлопнуть лаги
10:39
кнопочку "чтоб заебись работало" надо бы сделать
10:40
мнда.
10:40
ты ещё скажи кнопочку - смигрировать с дефолта на микросервисы без активации и смс
10:44
ну у тебя и мечты, Володий
10:44
заоблачные прям какие-то
10:44
а сам то ты давно закончил отмечать ?
10:44
в субботу ;)
10:46
зато у нас начались елтексы и гпоны
10:46
весьма любопытная штука
10:47
шалунишки.
10:47
у нас натексы и проводное радио.
10:47
а ещё у нас ставят ma5612 в участки сети которые контролируют телфонисты. ну ты понял.
10:48
а вашему руководству откуда траву доставляют ?
10:48
не знаю. это сильный секрет.
10:48
н-да уж. пора бы наладить централизованные поставки
10:49
не бойся до тебя тоже это может дойти. я чуть позже покажу фотки серваков натекса - забъёшься в оргазмах.
10:55
айпи-радио у нас тут тоже есть, да ;) белорусы даже приезжали в командировку
10:55
упороться и невстать .
10:55
у нас это всё в виде проектов тольео
10:56
трава у нас будет по централизованному рамочному договору
10:57
у одобренного поставщика
10:57
вотю
10:57
и прямых поставках из золотого треугольника
10:58
нееее
10:58
ты что
10:58
ООО "Ягель девелопмент КИС"
10:59
а то ваши бузиной и клюквой упарываются
10:59
ну прямо как дети (с)
11:08
у нас с олимпиады ип-радио
11:08
осталось
11:08
не, радио обычное, сочинское
11:09
маяк, хуяк и ещё какой-то канал, по меому не работает уже
11:09
если * подруге вашей по утрам не лезет в рот - обращайтесь на московский вентиляторный завод !
11:10
или на краснодарский компрессорный
11:10
между прочим лучший в мире по производительной эффективности
11:11
вчера по звезде подсмотрел
11:11
несчастный. смотришь телевизор.
11:12
не, вчера на СТО заезжал гайки покрутить, а он там в углу стоит попердывает
11:12
dvolodin: на кибану не хочешь перейти?
11:12
так то у меня телика уже 15 лет как нету дома
11:39
SomovIS_: а толку-то с тех фильтров?
12:36
всем приет!
12:36
с наступившим новым годом! :)
12:36
блять.
12:37
сегодня 18 а не 31
12:37
аээ.. что, надо 31 января поздравлять было? :)
12:37
вот блин!
12:38
парни, интересную фичу/багу нашел на циске. коммутатор 2960.. на нем прописан ip default-gateway 10.173.1.1 айпи самого коммутатора 10.173.1.3 дела. трассировку
12:40
traceroute 192.168.220.88
12:40
Type escape sequence to abort.
12:40
Tracing the route to 192.168.220.88
12:40
1 10.173.1.1 0 msec 0 msec 0 msec
12:40
2 10.173.19.1 17 msec 59 msec 75 msec
12:40
3 192.168.220.88 26 msec 9 msec 8 msec
12:40
все нормально.
12:40
но вот делаю трассировку на другой адрес и почему-то вот так выходит
12:41
traceroute 192.168.220.62
12:41
Type escape sequence to abort.
12:41
Tracing the route to 192.168.220.62
12:41
1 10.173.1.10 0 msec 0 msec 0 msec
12:41
2 10.173.19.9 1200 msec 59 msec 67 msec
12:41
3 192.168.220.62 67 msec 101 msec 100 msec
12:41
как такое может быть? до другого IP а этой же сети пакет бежит через другой шлюз??
12:41
в коммутаторе ж даже нельзя маршруты прописать до разных подсетей, если не ошибаюсь
12:41
таблица маршрутизации?
12:42
единственое, что на мысль наводит - второй гейтвей это микротик. и он по CDP на коммутаторе светится. может, он как-то через CDP сказал, мол, юзай меня как шлюз по умолчанию. ерунда какая-то
12:42
e_zombie, я тоже так подумал. но это же коммутатор. там даже нет комманды sh ip route
12:43
мож у тебя там тунель гденить ?
12:52
это ж коммутатор!! :)
12:52
какие туннели?
12:53
show run | i default
12:54
show run | i default
12:54
ip default-gateway 10.173.1.1
12:55
конкретно по проблемному IP:
12:55
sh run | i 192.168.220.62
12:55
access-list 7 permit 192.168.220.62
12:59
нашел в чем дело..
12:59
надо было на интерфейсе управляющем на роутере, который шлюз по умолчанию прописать no ip redirects
12:59
коммутатор у себя сохранил редирект конкретно на этот IP через другой шлюз
13:23
2016-01-18 16:22:12,323 [noc.lib.scheduler.job] [main.jobs][support.report_crashinfo][None] Running job handler
13:23
2016-01-18 16:22:12,342 [noc.support.models.crashinfo] Reporting crashinfo 28cd2c43-0143-50b5-b37f-cdb5c6ff16a5
13:23
2016-01-18 16:22:14,909 [requests.packages.urllib3.connectionpool] Starting new HTTPS connection (1): cp.nocproject.org
13:23
2016-01-18 16:22:21,927 [noc.support.cp] Invalid JSON-RPC response: No JSON object could be decoded
13:24
это я так понял общая херня
13:41
13:41
бедный майлру
13:44
что у нас с ноком
13:44
ни одного коммита за весь день
13:44
{ "ok" : 1 }
13:44
> db.repairDatabase();
14:09
А что у нас с активаторами? У меня такое чувство, что нок их не успевает все прогонять. При этом до максимума в 1024 дело не доходит. Т.е. из гуя дискавери хрен запустишь - стартует минут через пять после нажатия кнопки
14:10
причем в логах видно, что они отрабатывают
14:14
zi_rus: tower> hg status | wc -l
14:14
85
14:14
завтра или послезавтра будет новая башня с webix
14:15
Night_Snake1: походу мигрируй на башню. девелоп похоронили.
14:16
у меня такое впечатление сложилось .
14:16
dvolodin: а не новую, а рабочую можно увидеть?
14:16
если так
14:16
zi_rus: +1
14:16
в новый год с новым ноком
14:16
zi_rus: вот и готовлю
14:21
dvolodin: Дим, добавь сразу в башне проверку на дублирование записей в sqlite, чтобы ек всплыло как у меня "web-default"
14:21
добавляю по возможности
14:22
dvolodin: кстати, ты не смотрел ansible 2.0.0.1 ?
14:26
еще не смотрел
14:26
там придется несколько плагинчиков моих поправить
14:28
давай, а я тестировать буду
14:49
dvolodin: хм, в портах уже есть ansible 2.0.0.2
15:32
Filesystem Size Used Avail Use% Mounted on
15:32
/dev/sda2 394G 374G 62M 100% /
15:32
Сегодня только удалил backups
15:35
root@noc:/home/noc# rm -r /var/backups/noc-*
15:35
root@noc:/home/noc# df -h
15:35
Filesystem Size Used Avail Use% Mounted on
15:35
/dev/sda2 394G 13G 361G 4% /
15:35
что за говно?
17:41
17:41
строки 350 - 355
19:12
`kk: [backup]
19:12
keep_days = 14
19:12
keep_weeks = 12
19:12
keep_day_of_week = 6
19:12
keep_months = 12
19:12
keep_day_of_month = 1
19:12
и так
20:29
да
20:29
я тоже нахер бекапы отключаю
Share this page
Share this page: