nocproject.org
06:16
,,
06:25
06:25
06:26
вот поснимаешь в 2013 девочку а сейчас у неё уже год ребёнку.
06:32
значит еще кто-то ее поснимал в 2014
06:39
муж её снимал :)
06:40
неоднократно и часто .
07:09
dvolodin:
07:09
ERROR! Syntax Error while loading YAML.
07:09
The error appears to have been in '/opt/tower/var/tower/playbooks/nocproject/ansible/roles/node/tasks/main.yml': line 67, column 59, but may
07:09
be elsewhere in the file depending on the exact syntax problem.
07:09
The offending line appears to be:
07:09
environment:
07:09
PYCURL_SSL_LIBRARY: "{{ pycurl_ssl_library | default("openssl")}}"
07:09
^ here
07:09
We could be wrong, but this one looks like it might be an issue with
07:09
missing quotes. Always quote template expression brackets when they
07:09
start a value. For instance:
07:09
with_items:
07:09
- {{ foo }}
07:09
Should be written as:
07:16
SomovIS_: дерни еще раз
07:16
Пошло
08:30
Вопрос: а кто-нибудь сам дописывал правила для fm? пополнять будем под разное железо?
08:30
ну ващето надо бы. но коммитов давно не было в этом направлении
08:30
я сейчас репорт смотрю, много чего полезного нету
08:31
этточна.
08:31
и объяснимо почему
08:42
Dmitry1 этим занимался
09:19
SomovIS_: будем пополнять, да
09:26
под какое?
09:29
#fm.reporthierarchy
09:29
Смотрю под ios, dlink, huawei многое есть, но вот под xr и junos очень мало
09:30
Будем тоже пополнять, но позже
09:43
SomovIS_, для XR есть только что я кидал
10:09
zi_home: ткни пальцем
10:09
ты в какую ветку добавлял?
10:10
я про то что уже у тебя видно
10:14
freees, а ведь это ты сегменты добавлял в ФМ
10:14
я просил вывести туда сегменты
10:43
freees: не понял вопросы к пулу 149
11:22
zi_home: хм. вроде нет
11:22
только домены административные и селекторы
11:30
там, кстати, конфликт в пулл-реквесте был
11:31
конфикт в пулревесте не повод вданном случае
11:32
просто там дофига много работы проделано и появились вот эти два вопроса
11:34
ну по второму - щас логов нет. сделать пока смогу. нет пока свободного хоста проверить.
11:34
если это про лог деплоя
11:35
первый - я его не понял =)
11:36
прогон был на 3-х системах. бубунта, дебиан, центос
11:36
монга подхватывала мастера и реплику
11:37
это из критичного.
11:37
ansible/site.yml
11:37
посмотри комит дмитрия. он там неправильно фиксанул)
11:42
дак вот ине и интересно, ты его как тестирвоал ?
11:42
я просто на выходных морочилдся с rhel
11:42
полдня только схему собирал для тестов
11:43
хм.
11:45
в центоси прогонял роли по порядку. (снапшотя каждую роль)
11:46
потом добавляем бубунту. потом к ним дэбиан
11:46
или я опять не понял вопрос )
12:02
меняю сиськи на код который даст мне список хостов для которых на интерфейсах настроена 40ХХ вланка
12:08
freees: я проверял этот итоговый пул несколько раз. мерж)
12:09
а зомби проверит центось)
12:10
надо как то автоматом проверять
12:10
есть идем как ?
12:12
ооо
12:12
у меня очень замороченные мысли тут
12:13
пачку нод на разных ОС?
12:13
отдельный хост с виртуалками. со всеми ОС. ещё и реплику как-то проверять
12:14
всё это ещё и автоматом...
12:27
`kk: вот надо где то взять хост
12:28
на своей рабочей поднимай. иль ты на винде сидишь ?
12:28
e_zombie, не понял задачи и не понял проблемы. ты словами вроде все описал
12:29
e_zombie: надо как то автоматом... рабочий комп - так себе автомат
12:30
и обвязку написать...
12:30
короче мне надо раскидать по сегментам 100500 коммутаторов. признаком принадлежности к определённому сегменту является номер вланки для IPTV \ SIp - у них есть диапазон 4000-5000. где последние две цифры - номер кольца. вот мне и надо получить этот
12:31
у меня тестовый комп 25 мин 1 ноду собирает. про 3 молчу...
12:31
ну а дальше по хостнейму административному и тд я сгенерю имя сегмента и запишу на коммутатор.
12:31
кто выделит ксеончик для тестов ? =)
12:33
я бы дал. но не дам.
12:34
а для lxc надо ещё дописывать роли
12:39
я тоже подумывал над докером и товарищами
12:39
хочется какой нить CI сделать
12:40
по хорошему надо одну виртуалку под башню. она редко меняется
12:40
и по одной виртуалке под платформу
12:41
сейчас у нас 5 вроде, debian, ubuntu, censos, rhel, freebsd
12:41
под центось, наверное, для 6 и 7. (+редхат)
12:42
бубунта 12 и 14
12:42
ну 6 7 да. там разные системы инициализации .
12:42
ну и получается что на каждый коммит надо будет ребутать целевую архитектуру. сделать там винт без сохранения состояния
12:42
а так в целом всё одно
12:42
и проверять накат.
12:42
а проверенность наката отдавать в bitbucket
12:43
варианты сделать это я пока вижу только в aws. но там оно не бесплатное вообще.
12:43
причем видимо проверять надо паралельно на всех архитектурах :(
12:43
да!
12:44
я так с монгой пролетел вначале.
12:45
надо минимум по 3 ноды одновременно
12:45
по три ?
12:45
зачем ?
12:46
у монги в реплике мастер слейв и ещё кто-то
12:47
а ля кворум или как-то так
12:47
ну логично да
12:47
боюсь что это малоподъемно
12:47
и с учётом, что мастер "чётный"
12:47
16 виртуалок получается
12:48
все конечно мелкие
12:48
т.е сентос, бубунта, дэбиан -- бубунта мастер
12:48
`kk: не.
12:48
смешанные архитектуры в лес
12:48
ну реально оно в продакшене потому что так не будет
12:48
3 дц. везде свой дистр
12:50
т.е задача накатить ноду "заказчику" а у него "другой дистр".
12:50
политика компании
12:50
или хз ещё что.
12:50
ну так у него сквозной другой дистр
12:51
я не верю в заказчиков у которых все архитекртуры перемешаны
12:51
хахахахаха.
12:51
у меня салярка есть 9 и 10.
12:51
и HP_UX
12:52
в одном дс и него бубунта(исторически), в другом (исторически) центось.
12:53
и придётся шардить монгу на том, что есть
12:54
т.к ничего сам не поставишь и не уговоришь.
12:54
и сопротивление местных админов
12:55
лолкальная тачка рулит.
12:55
а то "заоптимизируешь" всё и их выгонят)))
12:56
лолкальная\домашняя - мощный серв жрёт эл-во и шумит
12:56
надо в дц ставить)
12:56
нда. надо бы где то раздобыть серваков для тестов. а то так будем тестить на админах :)
12:57
e_zombie: да понятно. но я просто не верю что под задачу микторсервисного нока будет отдано 5 разных архитектур
12:59
тут надо просто протетстиь в основных дистрах. плюс на таких конфигурациях вылазят ТАКИЕ глюки что никакими другими способами не отловить
12:59
может не 5, но в разных "наборах".
12:59
я щас знаю, где "будет" 3
13:00
"исторически" так там -((
13:00
я тоже за "нормальные" подходы, но, сука, жизнь)
13:22
{'platform': 'platform',
13:22
'vendor': 'RHEL',
13:22
'version': 'Fedora release 23 (Twenty Three)\n'}
13:30
у кого есть виртуалки рхелом. туда ставится dmidecode ?
13:30
e_zombie: free же закомитил куски рхела
13:30
это профиль оборудования
13:31
я не вижу особых проблем чтобы линуксовые машины отображались как железки на карте.
13:32
если уж сраный openwrt у нас может то чем ёбаная виртуалка не могёт
13:33
много версий разных и разнообразных
13:33
ну я вот начну профиля делать а там поглядим.
13:33
лишним не будет.
13:34
хоть будет видно что у меня в виртуалках бегает.
13:34
e_zombie: а если ли у тя виртуализаторы ?
13:34
всяские там esxi
13:34
вот было бы круто их на карту
13:34
у меня последний раз что то закупалось для серверного парка в 2008 году.
13:35
совсем свежее железо
13:35
оттож да.
13:35
и все лицензии на rhel протухли.
13:36
e_zombie, вендор Red Hat
13:37
это я на своей тачке тестирую пока.
13:37
я тебе говорю как поля заполнять
13:37
у меня почему то в виртуалке с ноком нету dmidecode
13:37
а на остальных есть
13:38
а вот хера.
13:38
в платформу наверное писать название дистрибудтива надо
13:38
платформой там будет хардварная платформа
13:38
» dmidecode -s baseboard-manufacturer
13:38
ASUSTeK Computer INC.
13:38
» dmidecode -s baseboard-product-name
13:38
P5K
13:38
» dmidecode -s baseboard-serial-number
13:38
MS1C81BCQ100256
13:39
кхм.
13:39
профиль и так называется RHEL
13:40
может быть масло масленное
13:40
а тебя не смущает что во всех скриптах циско название верндора прописано хардкодом
13:40
без поллитра не разберёшься.
13:41
платформа это то что определяет базовые особенности
13:41
например есть 7600 циска
13:41
но их полно разновидностей
13:41
ладно ладн.о уболтал чёрт языкастый
13:42
хотя с другой стороны
13:43
туда можно писать реальный это сервер или виртуалка
13:43
и тип процессора
13:43
вот. и это будет сразу видно без скриптов инвентори.
13:43
а уже в версии будет версия линукса
13:44
# Fedora release 23 (Twenty Three)
13:44
# CentOS release 6.7 (Final)
13:44
ystem Information
13:44
Manufacturer: Red Hat
13:44
Product Name: KVM
13:44
Version: RHEL 6.6.0 PC
13:44
Serial Number: Not Specified
13:44
UUID: E32193EA-26CC-4A9F-8B71-DE7562E34AB7
13:44
Wake-up Type: Power Switch
13:44
типа такого но без шелухи
13:44
SKU Number: Not Specified
13:44
Family: Red Hat Enterprise Linux
13:44
это виртуалка с рхелом на борту.
13:45
это квм виртуалка
13:45
а если вмваря
13:46
]# dmidecode
13:46
# dmidecode 2.12
13:46
# No SMBIOS nor DMI entry point found, sorry.
13:46
на ксене
13:46
хотя может это неправильный кзен
13:47
ну это частности походу
13:47
это как дмидекоде покажет
13:47
надо понять по какому признаку определять вируальность
13:47
тип виртуализации из /proc наверное брать
13:48
типа если не виртуалка, значит реальный сервер
13:48
ну давай те так. я счас сделаю рыбу. а дальше будем ебстись.
13:48
ну ты у себя делай, а мы тебе мозг проебем чтобы получилось правильно
13:49
мне ебать мозг сложно. у меня мозга нету .
13:49
один мосжечёк
14:02
{'platform': 'Fedora', 'vendor': 'RHEL', 'version': '23'}
14:04
{'Codename': 'Twenty Three',
14:04
'platform': 'Fedora',
14:04
'vendor': 'RHEL',
14:04
'version': '23'}
14:06
{'Codename': 'Twenty Three',
14:06
'platform': 'Fedora',
14:06
'vendor': 'Red Hat',
14:06
'version': '23'}
14:06
"codename" нормальный параметр ?
14:07
не
14:07
посмотри как в циске имя образа возвращается
14:08
"attributes": {
14:08
"image": match.group("image"),
14:08
}
14:08
вот так сделать ?
14:08
да
14:09
атрибуты это весь остальной мусор что не обязательный
14:09
бля. у меня тогда профили переделывать
14:10
{'attributes': {'codename': 'Twenty Three'},
14:10
'platform': 'Fedora',
14:10
'vendor': 'Red Hat',
14:10
'version': '23'}
14:11
ну и мы про платформу не договорили
14:15
только устарело... kvm по dmidecode не определяет
14:16
да и 99%, что тестить профиль будут на виртуалке
14:16
zi_home: насчёт платформы я не готов сейчас. полова не варит совсем и жрать хочу.
14:17
дмидекоде понадобится для инвентори.
14:17
а для версий пока хватит и того что есть .
14:18
может прикрутить для этого опросиник из ансибла ?
14:18
он нормально факты о системв отдает
14:18
и в комплекте с ноком уже идет
14:18
ансибл же не на всех хостах будет.
14:19
а ему не надо на всех хостах
14:19
он от удаленной стороны ждет только python
14:19
dvolodin: как тебе идея ?
14:22
"ansible_virtualization_role"
14:22
"ansible_virtualization_type"
14:23
пример для квм будет: guest и kvm
14:28
{'attributes': {'codename': 'Core'},
14:28
'platform': 'Linux',
14:28
'vendor': 'Red Hat',
14:28
'version': '7.2.1511'}
14:34
а есть промт с рхела дефолтного ?
14:36
{'attributes': {'codename': 'Santiago'},
14:36
'platform': 'Red Hat Enterprise Linux Server',
14:36
'vendor': 'Red Hat',
14:36
'version': '6.7'}
14:36
такие дела.
14:38
а теперь фича.
14:38
параметр платформу видите. а в бд оно попало только "server"
14:44
посмотрите, как оно у ansible сделано
14:44
он достаточно хорошо разбирает версии
14:46
OS_FAMILY = dict(
14:46
RedHat = 'RedHat', Fedora = 'RedHat', CentOS = 'RedHat', Scientific = 'RedHat',
14:46
SLC = 'RedHat', Ascendos = 'RedHat', CloudLinux = 'RedHat', PSBM = 'RedHat',
14:46
OracleLinux = 'RedHat', OVS = 'RedHat', OEL = 'RedHat', Amazon = 'RedHat',
14:46
XenServer = 'RedHat', Ubuntu = 'Debian', Debian = 'Debian', Raspbian = 'Debian', Slackware = 'Slackware', SLES = 'Suse',
14:46
SLED = 'Suse', openSUSE = 'Suse', SuSE = 'Suse', SLES_SAP = 'Suse', Gentoo = 'Gentoo', Funtoo = 'Gentoo',
14:46
Archlinux = 'Archlinux', Manjaro = 'Archlinux', Mandriva = 'Mandrake', Mandrake = 'Mandrake',
14:46
Solaris = 'Solaris', Nexenta = 'Solaris', OmniOS = 'Solaris', OpenIndiana = 'Solaris',
14:46
SmartOS = 'Solaris', AIX = 'AIX', Alpine = 'Alpine', MacOSX = 'Darwin',
14:46
FreeBSD = 'FreeBSD', HPUX = 'HP-UX'
14:46
)
14:49
оно и разбирает замечательно
14:49
см tower/lib/python2.7/site-packages/ansible/module_utils/facts.py
14:50
Ну извинтие, всякие BolgenOS оно не шарит
14:56
dvolodin: Дим, у меня есть желание сделать, чтобы при установке каждого сервиса оно не проверяло версию pip
14:57
Как можно сделать, чтобы проверяло только один раз на ноде ?
14:57
т.е., если куча сервисов ставятся на одну машину, то версию pip проверяло только один раз
15:03
Dmitry1: а у тяна фряху ставится всё?
15:03
у меня ужасные ошибки пока не поставишь ансибл из апстрима
15:03
15:03
такая вот
15:04
стабильно воспроизводится на 10.2 фре
15:04
я тупо делаю deploy еще раз, и все проходит
15:05
покажи консоль башни
15:05
с помледней задачей
15:06
последней
15:06
ооооой
15:06
я такое даже не трогаю
15:06
я на STABLE живу
15:07
ну не важно ошибка точно есть
15:08
на какой задаче хоть вылетает ?
15:08
консоль уже не покажу.
15:08
вылетает на 4 штоли задаче
15:09
рендеринг шаблона для установки rc.d/noc
15:09
а STABLE сейчас какая ?
15:10
ftp://ftp.freebsd.org/pub/FreeBSD/snapshots/ISO-IMAGES/10.3/
15:10
Production: 10.2, 10.1, 9.3 Upcoming: 10.3 Upcoming: 11.0
15:11
а 10.3-RC2
15:11
ну да, это почти релиз
15:11
я согласен
15:12
ладно. ошибка явно ансибловая
15:12
10.3-PRERELEASE FreeBSD 10.3-PRERELEASE #0 r294913: Wed Jan 27 15:24:05 UTC 2016
15:12
у меня на этом без ошибок
15:13
при том что у меня специфичный юзкейс в конечном счете. я рассматриваю что все ставится на одну машину. и башня и остальное
15:13
у меня башня и noc на обной машине
15:14
ага
15:14
у меня ни так ни так не заработало
15:14
в башне выбрать тип установки "FreeBSD", и оно там сделает все пучком
15:14
я в кноечном счете делаю так вот
15:14
sqlite3 /opt/tower/var/tower/db/config.db
15:15
update node_type set ansible_connection='local' where id=2;
15:15
думаю надо этот вариант сделать 3
15:15
тогда ssh не нужен. и все работает от пользователя tower
15:16
дык я так и делаю
15:16
этот скрипт все равно не полный.
15:16
единственное, оно конфиг затирает
15:17
для локальной инсталяции еще было бы не плохо ключ подсунуть и пользователя ансибл создать
15:17
но как показала практика, лучше после запуска башни потыкать пару минут мышкой
15:17
и конфиг в sudo сделать
15:18
это второй скрипт можно сделать
15:18
ладно как выйдет ansible 2.0.1.0 все сразу станет хорошо
15:19
сейчас на этой версии выдается несколько deprecation warning
15:19
но у меня то все работает
15:19
чем я сильно озадачен
15:19
а логи джобов сохранились ?
15:20
думаю да
15:20
ща виртуалбокс загрузится
15:20
могу даунгрейцдить и показать
15:22
я в Environment меняю только Name и Host
15:22
вот смотри сейчас у меня ansible==2.1.0
15:23
в Nodes выставляю тип ноды FreeBSD и IP адрес ноды
15:23
а, в Environment у меня Host == Address в Nodes
15:28
pastebin.com/mVskvFCj
15:29
это на ansible==2.0.0.2
15:30
это при том, когда файлика /usr/local/etc/rc.d/noc нету, или он там есть, но какой-то другой ?
15:31
есть
15:31
и он праивильный
15:32
могу его удалить
15:33
задание пройдет дальше
15:33
но при попытке деплой снова - опять свалится на этом месте. пока не удалишь файл.
15:34
ща проверю как с остальными шаблонами
15:34
т.е., если даже файлик правильный, оно ругается ?
15:34
да
15:35
если файлик удалить пройдет дальше до
15:35
TASK [node : Install noc.pth] ************************************************** fatal: [local]: FAILED! => {"changed": false, "failed": true, "msg": "failed to checksum remote file. Checksum error code: 0"}
15:36
можно конечно в целях совместимости сначала удалять шаблоны. но это костыль и не очень понятно чем может обернуться если шаблон правлены
15:37
че-то мне кажктся, с sudo у тебя проблемы
15:38
покажи следующие переменные из инвентори:
15:38
ansible_python_interpreter
15:39
"ansible_python_interpreter": "/usr/local/bin/python2"
15:40
$ /usr/local/bin/python2 Python 2.7.11 (default, Mar 5 2016, 01:24:09)
15:40
и на текущий момент в фряхе нет пакета для mongodb32
15:40
затык в ansible/plugins/action
15:40
его просто не собирают
15:41
файлик init.py функция _remote_checksum(). именно она возвращает 0
15:41
freees: поставь более свежую фряху
15:42
почему ? вытяни образ 10.3
15:43
ансибл дешевле обновить чем ось
15:43
# pkg info mongodb32
15:43
mongodb32-3.2.1_1
15:43
Name : mongodb32
15:43
Version : 3.2.1_1
15:43
Installed on : Fri Feb 12 10:27:31 2016 EET
15:43
Origin : databases/mongodb32
15:43
Architecture : freebsd:10:x86:64
15:44
15:44
с 27 февраля не собирают
15:44
15:47
такие вот кукрыниксы
15:50
хм, да. порт есть, а пакета нету
15:50
но это нормально, разморозят порты, и начнут клепать пакеты
15:52
15:53
десятку разморозят через пару недель
15:53
и сделают нормальные пакеты для 10.3-RELEASE
15:54
15:54
RELEASE builds begin 25 March 2016 - 10.3-RELEASE builds begin.
15:54
RELEASE announcement 29 March 2016 - 10.3-RELEASE press release.
15:54
тогда вместе с релизом и пакеты для него сделают
15:55
ааа
15:55
смотри порт
15:56
# Bugs when compiled with < Clang 3.7
15:56
15:56
15:56
BUILD_DEPENDS= ${LOCALBASE}/bin/clang37:${PORTSDIR}/lang/clang37
15:56
а на десятке обкатан только clang 3.6
15:57
разморозят десятку, и будет тебе свежая монга
16:00
впрочем пакет нормально собирается
16:00
правда не уверен что работает корректно
16:00
статануть она стартанула
16:02
ну так сделай пакет и положи его в /usr/ports/packages
16:03
но я очень рекомендую обновить фрю до последней версии
16:03
у монги были проблемы с фрей до декабря
16:04
в декабре что-то починили. уже не помню что
16:04
Dmitry1: а у тя серваков на найдется :)
16:04
ci поделать ?
16:04
ну или хотя бы воркер для фри
16:04
ну разве что тот, на котором я микросервисы и башню тестирую
16:05
ну вот нужна виртуалочка с формфактором типа 2 гига оперативы и минимальный проц. 8 гигов жесткого диска
16:06
где-то через недельку попытаюсь
16:06
у сервака нету внешнего ip
16:06
а через nat не могу пробросить пока
16:07
ага. ну хоть так.
16:07
может можно сделать что бы сам сервак за заданиями ходил
16:13
сейчас соберу себе пакадж с монгой 3.2.3
16:13
он у меня есть
16:13
могу поедлится
16:13
куда только его ?
16:13
та мне пол-часа делов
16:14
он реально долго билдится.
16:14
меньше конечно чем фаерфокс и опенофис
16:14
но всё равно очень не прияно долго
16:15
# cat /etc/make.conf
16:15
WRKDIRPREFIX=/tmp
16:15
# cat fstab
16:15
# Device Mountpoint FStype Options Dump Pass#
16:15
/dev/raid/r0p2 / ufs rw,noatime 1 1
16:15
/dev/raid/r0p3 none swap sw 0 0
16:15
tmpfs /tmp tmpfs rw 0 0
16:16
и компилится раз в 10 быстрее
16:16
дык если компилить то ccache еще бы поставить
16:16
вот он реально ускоряет
16:16
второй правда раз
16:16
нафига ? и так все в пямяти
16:17
ccache это кеш компиляции
16:17
его в каррент всунут по умолчанию
16:17
я эту сказку уже лет 8 слышу :)
16:17
или 10
16:21
/usr/src/share/mk/bsd.opts.mk
16:22
__DEFAULT_NO_OPTIONS = \
16:22
CCACHE_BUILD \
16:22
FAST_DEPEND \
16:22
включи, в /etc/src.conf - и будет тебе счастье
16:23
он выключен, потому как разработчики страдают кросскомпиляцией
16:25
нее. мне разовое.
16:25
дебиан мне милее
16:26
Господа, настраивать фаер в рамках ansible не будем ?
16:26
считаем его выключенным ?
16:26
ну как бы на нулевой машине он выключен
16:27
считаем что фаер на хосте запущен, а не на ноде
16:42
ну просто в rhel он по умолчанию довольно сильно настроен
16:42
я хз толи правила для него писать толи обнулять
16:51
да. те же мысли
16:51
+selinux
16:52
ага ага
16:52
ну selinux я пока считаю тупо в пермиссив
16:53
с фаерволом всё более-менее понятно, но вот селинукс обучать...
16:53
озадачить dvolodin что бы он писал правила для selinux - будет болька
17:18
`kk: давай обсудим самомониторинг нока ?
17:57
да
17:57
нока или башни
17:57
нока
17:57
смысла какой, решили с dv взять telegraf
17:57
он часть инфлуксовского стека
17:58
задеплоим его как часть плейбука
17:58
он будет слать в influx метрики всякие системные с нод
17:58
у меня уже он есть собранный - вполне работает. есть пить не просит
17:58
писан на go
17:59
основные данные снимает
17:59
умеет мониторить весь наш стек. mongo, postgres, influx, nginx. умеет метод httpjson
17:59
через него будут сниматься метрики с самого нока
18:00
типа как там sae себя чувствует как discovery и так далее
18:01
потом нужны будут триггеры. и в TICK стеке есть Kapacitor. он вроде как умеет алертинг по всякому
18:02
мы с Димой на той неделе выловили уже пару косяков из -за наличия мониторинга
18:03
хм
18:04
в ГО я ноль)
18:05
могу потестить
18:05
а там и не надо на нем писать
18:09
графана у нас в стеке уже есть она не плохо рисует графики
18:09
и вроде как тоже обещают сделать алертинг
18:10
так что на счет kapacitor я не тороплюсь
18:11
на башне поднимать инфлюкс ? или отдельная нода.
18:12
не понимаю будет ли отдельный инфлюкс для всех нод.
18:13
понял, что льём его на ноды с готовым конфигом.
18:14
а куда всё сливать: noc-tower или noc-mon
18:15
`kk: фиг знает.
18:15
куда то
18:16
наверное просто на какой то influx
18:16
врятли на ноктавере должен быть отдельный
18:16
ага. на нём
18:17
прям в морде башни ссылку на мониторинг
18:18
а в идеале в морде башни во вкладке )
18:18
ой ой
18:18
у тебя тоже в голове есть идея что башня нужна зачем то кроме деплоя ?
18:19
мысль такая: раз уж появилась башня..
18:20
она пусть и мониторинг показывает
18:21
это в идеале
18:22
открыл 1 вкладку и видишь всё. раскатанные сервисы, мониторинг для них
18:23
пока видимо надо ставить отдельно на туда же где и башня
18:24
ну как минимум на той же виртуалке\системе
18:24
ещё 1 отдельный хост как-то не к месту
18:29
"просто на какой то influx" - docker
18:31
так. в башне поставили галку мониторинг. она выкатила его на ноду. на ноду в конфиге же будет айпи какой-либо ?
18:31
вроде логично что айпи башни...
18:32
хз.
18:32
у меня примерно такое видение
18:38
а у меня как то по другому рисуется
18:38
галка мониторинг вообще ненужна
18:39
просто в боевом инфулксе создаем еще одну базу
18:39
телеграф добавляем в роль node
18:39
и пихаем пол умолчанию съем метрик
18:39
системного характера
18:39
а дальше для каждой из ролей добавляем мониторинг под нее.
18:40
ок. собрали данные. теперь их надо передать
18:40
я посомтрел у телеграфа конфиги для мониторинга сервисов складываются в /etc/telegraf/telegraf.conf.d/service_name.conf
18:41
телеграу в качестве output плагина задаем как раз influx
18:41
а кормим графане новый источник данных
18:41
где этот инфлюкс будет?
18:43
вот дима думает что на башне. а я думаю что на башне не надо столько места держать
18:43
ведь телеграф передает телеметрию раз в 10 секунд
18:43
и это довольно не хилый объем если посмотреть на перспективу
18:44
мне сильно хотелось бы сохранить башню просто инсталятором
18:44
а то функционал разбрасываем в разные места
18:47
ну создать\придумать на подобии башни
18:47
дsr графана же есть
18:50
freees: 1 машина башня, из неё ставим 3 ноды нока (один ENV). на каждой ноде прописываем в телеграфе айпи инфлюкса куда слать данные
18:50
пока верно?
18:50
теперь надо понять где их принимать
18:51
башню держать на десктопе не вариант
18:51
нужна отдельная система
18:52
допустим добавлять периодически активаторы в том же ENV и тд
18:54
теперь варианты
18:54
`kk: 3 ноды то какие ?
18:55
ну монга на 1 ноде. постгрес на второй и 3-я с вэб инт-ом
18:55
у меня в голове это нода с данными, там инфлукс, монга, постгрес. нода с вебом и товарищами. и нода с активатором и товарищами
18:56
опционально можно разнести (монга, постгрес) (influx)
18:56
что бы разнести io
18:56
если его будет много.
18:56
я не про ето щас
18:57
я понял свою мысль:
19:03
1. инфлюх ставится с башней и с башни есть ссылка. на нодах в конфиге телеграфа автоматом айпи башни. (минимум действий "админа")
19:03
2. качаем с сайта нока например ансибл бук или скрипт для установки на любую другую систему. (доп действие руками)
19:03
3. не паримся. "админ" при установке должен знать, что надо найти инфлюкс и в него заводить. через башню задаём айпи куда
19:07
если не 1-й вариант (или второй при установке на саму башню)
19:07
я "физически" получу 2 виртуалки а не 1
19:08
сумбурно наверное всё это =)
19:11
`kk: да все просто же
19:11
пока вопрос стоит так: на башни собирать статистику или заводить отдельную систему по неё
19:11
я за первое
19:11
=)
19:11
:))
19:11
1. есть башня. она задеплоила 3 сервера. один env
19:12
2. все три сервера имеют разные роли
19:12
3. в одном из серверов есть роль influxdb. она там нужна для мониторинга железа
19:12
4. на каком то сервере есть роль grafana
19:13
5. на всех трех нодах есть мониторинг
19:13
6. он в сторону сервера с influx шлет метрики
19:13
7. админ заходит в морду grafana и смотрит метрики
19:14
`kk: ок ?
19:15
аа
19:15
я сразу отмёл вариант размещать на ноде
19:20
надо временно выключить 1 ноду, а сервисы с неё на другие. а потом через 2-3 дня вернуть обратно
19:21
1 ноду - тот самый инфлюкс -)
19:22
в это время данные "убегут"
19:24
как думаешь, на каждый ENV должна быть своя инфля для мон-га ?
19:24
тут я даже хз. удобно 1инстанс на всё. но может и нет
19:27
freees: твой вариант быстро и удобно. и он мне нравится)
19:28
но если новый деплой запнётся где и не стартанёт инфлюкс
19:31
нужны ещё аргументы
19:31
идеи
19:51
AD kakoeto.. s rolyami..
19:51
Ili exchange, s konyami..
19:53
IIppodrom s konyami
20:00
ne ne tek.. v deinstalirovannom na hren vide...
Share this page
Share this page: