Mi az ansible?
Az Ansible olyan szoftvereszközök készlete, amely kódként teszi lehetővé az infrastruktúrát. Nyílt forráskódú, csomag szoftver-kiépítést, konfigurációkezelést és alkalmazástelepítési funkciókat tartalmaz. (forrás: wikipedia)
Ez egy kicsit nyakatekert, na 🙂
Saját szavaimmal úgy mondanám, hogy egy remek konfiguráció menedzsment eszköz.
Mire való?
Segítségével könnyedén tudunk nagy infrastruktúrát üzemeltetni. Linuxon csak ssh-ra van szüksége, és egy megfelelő jogokkal rendelkező felhasználóra.
Kezdjünk hozzá, hozzuk létre a szükséges fájlokat, mappákat
Telepítsük fel a kedvenc oprendszerünkre (továbbra is a Fedora Linux) a megfelelő csomagokat:
$ sudo dnf install -y ansible-core ansible-collection-ansible-posix ansible-collection-community-general ansible-collection-community-docker ansible-packaging ansible-srpm-macros
Van még rengeteg modulja, nekem ezekre van szükségem, a legtöbb feladatra elég az ansible-core is.
Más operációs rendszeren (pl Zorin OS (Ubuntu)) nagy eséllyel más ansible verziót fogsz találni, aminél hibára fog futni ezen cikk 1-1 parancsa. Ezért alternatív telepítést javaslok:
$ pip install ansible-core==2.15.9 ansible==8.7.0
A korábbi, vagrantos cikkekben létrehozott „vagrant” mappába csinálok mindent, mivel a demonstrációhoz szükségünk lesz több eldobható szerverre is, majd belépve hozzuk létre az alábbi almappákat/fájlokat:
.
├── ansible.cfg
├── inventory
│ └── inventory.yml
├── log
├── playbook
├── tasks
└── templates
Létrehozás egy paranccsal:
mkdir inventory log playbook tasks templates; touch ansible.cfg inventory/inventory.yml
Az ansible.cfg-be tegyük ezt a pár sort:
[defaults]
host_key_checking = False
inventory = ./inventory/inventory.yml
log_path = log/ansible.log
timeout = 5
deprecation_warnings = False
command_warnings = False
interpreter_python = auto_legacy_silent
ansible_managed = This file is managed by Ansible, all changes will be lost! PLEASE DO NOT EDIT!%n
template: {file}
date: %Y.%m.%d. %H:%M:%S
user: {uid}
host: {host}
[ssh_connection]
scp_if_ssh=True
Gyors magyarázat: megmondjuk neki, hogy hol találja az inventorynkat, hogy hová kell loggolnia, bizonyos figyelmeztetéseket pedig kikapcsolunk. Valamint definiáljuk a sablon „ansible_managed” szöveget, erről majd később.
Az inventory.yml-t is töltsük fel adatokkal:
---
all:
hosts:
localhost:
children:
servers:
vars:
ansible_ssh_user: vagrant
hosts:
vm1:
ansible_host: 192.168.56.2
ansible_ssh_private_key_file: .vagrant/machines/vm1/virtualbox/private_key
vm2:
ansible_host: 192.168.56.3
ansible_ssh_private_key_file: .vagrant/machines/vm2/virtualbox/private_key
vm3:
ansible_host: 192.168.56.4
ansible_ssh_private_key_file: .vagrant/machines/vm3/virtualbox/private_key
vm4:
ansible_host: 192.168.56.5
ansible_ssh_private_key_file: .vagrant/machines/vm4/virtualbox/private_key
Gyors magyarázat: a hosts: localhost az a gépünk, ahol épp futtatjuk az ansible-t, nem nagyon lesz rá szükségünk (nem kötelező, de a demóhoz jól fog jönni). A children alatti servers a csoportnak a neve, tagjai pedig a négy vm. Van még egy vars, ami a csoport közös változóit tartalmazza, a mi esetünkben csak egyet, a csatlakozáshoz szükséges vagrant felhasználót.
A többi mappa egyelőre maradhat üresen. Indítsuk el az összes VM-et, kivéve a vm4-et. A vm4-es szerverrel fogjuk demózni a nem elérhető szervert 🙂
$ vagrant up vm1 vm2 vm3
Most már tényleg jöjjenek az ansible parancsok
A leges legelső parancsunk, megmutatja, hogy elérhető-e a kívánt szerver, a példában a vm1 (ez még csak ad-hoc parancs):
$ ansible -m ping vm1
vm1 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false,
"ping": "pong"
}
Itt nem látszik, de most az egyszer kiszínezem zöldre 🙂
Most a nem elérhető vm4-et pingeljük meg:
$ ansible -m ping vm4
vm4 | UNREACHABLE! => {
"changed": false,
"msg": "Failed to connect to the host via ssh: ssh: connect to host 192.168.56.5 port 22: No route to host",
"unreachable": true
}
Itt nem látszik, de most az egyszer kiszínezem pirosra 🙂
Kis magyarázat a két kimenethez: az első sorban mutatja a gép inventoryból ismert nevét (vm1, vm4), hogy sikeres volt-e a csatlakozás (SUCCESS/UNREACHABLE). A többi sor attól függően változik, hogy sikerült-e vagy sem csatlakozni a hoszthoz. Sikertelenség esetén van egy kézzel fogható hibaüzenetünk: Failed to connect to the host via ssh: ssh: connect to host 192.168.56.5 port 22: No route to host, mi tudjuk, hogy azért nem elérhető a megadott IP címen/ssh porton a szerver, mert nincs elindítva.
Maradva ennél a példánál, meg lehet adni egynél több hosztot is:
$ ansible -m ping vm1,vm4
vm1 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false,
"ping": "pong"
}
vm4 | UNREACHABLE! => {
"changed": false,
"msg": "Failed to connect to the host via ssh: ssh: connect to host 192.168.56.5 port 22: No route to host",
"unreachable": true
}
Ezt már nem tudom színezni, nem lehet csak egyfajta háttér és betűszínt beállítani 🙁
Gyors magyarázat:
$ ansible | -m | ping | vm1,vm4 |
a parancs, amit futtatunk 🙂 | kapcsoló m, mint modul | a modul neve | hosztok vesszővel elválasztva |
A hoszt lehet a már bemutatott egy vagy két gépes formában (vesszővel elválasztva), lehet csoport, csoportok (vesszővel elválasztva), lehet mindenki (all), vagy lehet kivenni hosztot is egy csoportból.
Például futtassuk le a servers csoport tagjaira, kivéve a vm4:
$ ansible -m ping servers,\!vm4
vm1 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false,
"ping": "pong"
}
vm2 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/libexec/platform-python"
},
"changed": false,
"ping": "pong"
}
vm3 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python3"
},
"changed": false,
"ping": "pong"
}
A felkiáltó jellel jelezzük, hogy az utána következő vm4-re nem kell lefuttatni a parancsot. A „\” karakterrel „escapelni” kell a „!” karaktert, különben nem fog működni. Másik formátumban is írhatjuk, és akkor nem kell „escapelni”: $ ansible -m ping 'servers,!vm4'
Ahogy már említettem, ha minden hosztra le akarjuk futtatni a parancsot, akkor így fog kinézni a megszokott parancsunk:
$ ansible -m ping all
vm3 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python3"
},
"changed": false,
"ping": "pong"
}
vm1 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false,
"ping": "pong"
}
vm2 | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/libexec/platform-python"
},
"changed": false,
"ping": "pong"
}
localhost | SUCCESS => {
"ansible_facts": {
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false,
"ping": "pong"
}
vm4 | UNREACHABLE! => {
"changed": false,
"msg": "Failed to connect to the host via ssh: ssh: connect to host 192.168.56.5 port 22: No route to host",
"unreachable": true
}
Azon ne akadjunk ki, hogy nem abc sorrendben csatlakozik a hosztjainkhoz (a párhuzamos működés miatt) 🙂
Csináljunk már valamit, uncsi a pingelés 🙂
Futtassunk egy tetszőleges parancsot mondjuk két szerveren:
$ ansible -m shell -a "free -h" vm1,vm3
vm1 | CHANGED | rc=0 >>
total used free shared buff/cache available
Mem: 990M 114M 777M 6.7M 97M 753M
Swap: 2.0G 0B 2.0G
vm3 | CHANGED | rc=0 >>
total used free shared buff/cache available
Mem: 957Mi 171Mi 460Mi 1.0Mi 324Mi 640Mi
Swap: 0B 0B 0B
A korábbi ping modult lecseréltük shell modulra, aminek van egy kapcsolója: „-a„, aminek van egy paramétere idézőjelek között, oda írjuk a parancsunkat, a példában a „free -h”-t. Magyarul: arra vagyunk kíváncsiak, hogy a vm1 és vm3 szerverek hogy állnak memóriával.
Most mutatok egy újabb kapcsolót (-b):
$ ansible -m shell -a "whoami" vm1
vm1 | CHANGED | rc=0 >>
vagrant
$ ansible -m shell -a "whoami" vm1 -b
vm1 | CHANGED | rc=0 >>
root
A kérdés az volt, hogy kik vagyunk (whoami), az első válaszban az elvárt vagrant (emlékezzetek, ez a közös változó az inventoryban) , a második esetben pedig: root. Tehát a „-b” kapcsoló azt jelenti, hogy „become„, azaz mintha sudo lenne a parancs előtt. Ez csak a vagrant szervereken működik jelszó megadása nélkül, „igazi” szerverek esetén kell egy „-K” kapcsoló is (ami bekéri a jelszót).
Nézzük meg, mit tud a vm1 szerverről az ansible:
$ ansible -m setup vm1
vm1 | SUCCESS => {
"ansible_facts": {
"ansible_all_ipv4_addresses": [
"10.0.2.15",
"192.168.56.2"
],
"ansible_all_ipv6_addresses": [
"fe80::5054:ff:fe4d:77d3",
"fe80::a00:27ff:fe65:f18f"
],
"ansible_apparmor": {
"status": "disabled"
},
"ansible_architecture": "x86_64",
"ansible_bios_date": "12/01/2006",
"ansible_bios_vendor": "innotek GmbH",
"ansible_bios_version": "VirtualBox",
"ansible_board_asset_tag": "NA",
"ansible_board_name": "VirtualBox",
"ansible_board_serial": "NA",
"ansible_board_vendor": "Oracle Corporation",
"ansible_board_version": "1.2",
"ansible_chassis_asset_tag": "NA",
"ansible_chassis_serial": "NA",
"ansible_chassis_vendor": "Oracle Corporation",
"ansible_chassis_version": "NA",
"ansible_cmdline": {
"BOOT_IMAGE": "/boot/vmlinuz-3.10.0-1160.92.1.el7.x86_64",
"LANG": "en_US.UTF-8",
"biosdevname": "0",
"console": "ttyS0,115200n8",
"crashkernel": "auto",
"elevator": "noop",
"net.ifnames": "0",
"no_timer_check": true,
"ro": true,
"root": "UUID=1c419d6c-5064-4a2b-953c-05b2c67edb15"
},
"ansible_date_time": {
"date": "2023-06-28",
"day": "28",
"epoch": "1687962854",
"epoch_int": "1687962854",
"hour": "14",
"iso8601": "2023-06-28T14:34:14Z",
"iso8601_basic": "20230628T143414438497",
"iso8601_basic_short": "20230628T143414",
"iso8601_micro": "2023-06-28T14:34:14.438497Z",
"minute": "34",
"month": "06",
"second": "14",
"time": "14:34:14",
"tz": "UTC",
"tz_dst": "UTC",
"tz_offset": "+0000",
"weekday": "Wednesday",
"weekday_number": "3",
"weeknumber": "26",
"year": "2023"
},
"ansible_default_ipv4": {
"address": "10.0.2.15",
"alias": "eth0",
"broadcast": "10.0.2.255",
"gateway": "10.0.2.2",
"interface": "eth0",
"macaddress": "52:54:00:4d:77:d3",
"mtu": 1500,
"netmask": "255.255.255.0",
"network": "10.0.2.0",
"prefix": "24",
"type": "ether"
},
"ansible_default_ipv6": {},
"ansible_device_links": {
"ids": {
"sda": [
"ata-VBOX_HARDDISK_VB3b81d3cf-70fa22f1"
],
"sda1": [
"ata-VBOX_HARDDISK_VB3b81d3cf-70fa22f1-part1"
]
},
"labels": {},
"masters": {},
"uuids": {
"sda1": [
"1c419d6c-5064-4a2b-953c-05b2c67edb15"
]
}
},
"ansible_devices": {
"sda": {
"holders": [],
"host": "IDE interface: Intel Corporation 82371AB/EB/MB PIIX4 IDE (rev 01)",
"links": {
"ids": [
"ata-VBOX_HARDDISK_VB3b81d3cf-70fa22f1"
],
"labels": [],
"masters": [],
"uuids": []
},
"model": "VBOX HARDDISK",
"partitions": {
"sda1": {
"holders": [],
"links": {
"ids": [
"ata-VBOX_HARDDISK_VB3b81d3cf-70fa22f1-part1"
],
"labels": [],
"masters": [],
"uuids": [
"1c419d6c-5064-4a2b-953c-05b2c67edb15"
]
},
"sectors": "83884032",
"sectorsize": 512,
"size": "40.00 GB",
"start": "2048",
"uuid": "1c419d6c-5064-4a2b-953c-05b2c67edb15"
}
},
"removable": "0",
"rotational": "1",
"sas_address": null,
"sas_device_handle": null,
"scheduler_mode": "noop",
"sectors": "83886080",
"sectorsize": "512",
"size": "40.00 GB",
"support_discard": "0",
"vendor": "ATA",
"virtual": 1
}
},
"ansible_distribution": "CentOS",
"ansible_distribution_file_parsed": true,
"ansible_distribution_file_path": "/etc/redhat-release",
"ansible_distribution_file_variety": "RedHat",
"ansible_distribution_major_version": "7",
"ansible_distribution_release": "Core",
"ansible_distribution_version": "7.9",
"ansible_dns": {
"nameservers": [
"10.0.2.3"
],
"search": [
"home"
]
},
"ansible_domain": "",
"ansible_effective_group_id": 1000,
"ansible_effective_user_id": 1000,
"ansible_env": {
"HOME": "/home/vagrant",
"LANG": "en_US.UTF-8",
"LESSOPEN": "||/usr/bin/lesspipe.sh %s",
"LOGNAME": "vagrant",
"LS_COLORS": "rs=0:di=38;5;27:ln=38;5;51:mh=44;38;5;15:pi=40;38;5;11:so=38;5;13:do=38;5;5:
... (innen kivágtam egy csomó unalmas számot) ...
5;45:*.spx=38;5;45:*.xspf=38;5;45:",
"MAIL": "/var/mail/vagrant",
"PATH": "/usr/local/bin:/usr/bin",
"PWD": "/home/vagrant",
"SELINUX_LEVEL_REQUESTED": "",
"SELINUX_ROLE_REQUESTED": "",
"SELINUX_USE_CURRENT_RANGE": "",
"SHELL": "/bin/bash",
"SHLVL": "2",
"SSH_CLIENT": "192.168.56.1 57230 22",
"SSH_CONNECTION": "192.168.56.1 57230 192.168.56.2 22",
"SSH_TTY": "/dev/pts/0",
"TERM": "xterm-256color",
"USER": "vagrant",
"XDG_RUNTIME_DIR": "/run/user/1000",
"XDG_SESSION_ID": "15",
"_": "/usr/bin/python"
},
"ansible_eth0": {
"active": true,
"device": "eth0",
"features": {
"busy_poll": "off [fixed]",
"fcoe_mtu": "off [fixed]",
"generic_receive_offload": "on",
"generic_segmentation_offload": "on",
"highdma": "off [fixed]",
"hw_tc_offload": "off [fixed]",
"l2_fwd_offload": "off [fixed]",
"large_receive_offload": "off [fixed]",
"loopback": "off [fixed]",
"netns_local": "off [fixed]",
"ntuple_filters": "off [fixed]",
"receive_hashing": "off [fixed]",
"rx_all": "off",
"rx_checksumming": "off",
"rx_fcs": "off",
"rx_gro_hw": "off [fixed]",
"rx_udp_tunnel_port_offload": "off [fixed]",
"rx_vlan_filter": "on [fixed]",
"rx_vlan_offload": "on",
"rx_vlan_stag_filter": "off [fixed]",
"rx_vlan_stag_hw_parse": "off [fixed]",
"scatter_gather": "on",
"tcp_segmentation_offload": "on",
"tx_checksum_fcoe_crc": "off [fixed]",
"tx_checksum_ip_generic": "on",
"tx_checksum_ipv4": "off [fixed]",
"tx_checksum_ipv6": "off [fixed]",
"tx_checksum_sctp": "off [fixed]",
"tx_checksumming": "on",
"tx_fcoe_segmentation": "off [fixed]",
"tx_gre_csum_segmentation": "off [fixed]",
"tx_gre_segmentation": "off [fixed]",
"tx_gso_partial": "off [fixed]",
"tx_gso_robust": "off [fixed]",
"tx_ipip_segmentation": "off [fixed]",
"tx_lockless": "off [fixed]",
"tx_nocache_copy": "off",
"tx_scatter_gather": "on",
"tx_scatter_gather_fraglist": "off [fixed]",
"tx_sctp_segmentation": "off [fixed]",
"tx_sit_segmentation": "off [fixed]",
"tx_tcp6_segmentation": "off [fixed]",
"tx_tcp_ecn_segmentation": "off [fixed]",
"tx_tcp_mangleid_segmentation": "off",
"tx_tcp_segmentation": "on",
"tx_udp_tnl_csum_segmentation": "off [fixed]",
"tx_udp_tnl_segmentation": "off [fixed]",
"tx_vlan_offload": "on [fixed]",
"tx_vlan_stag_hw_insert": "off [fixed]",
"udp_fragmentation_offload": "off [fixed]",
"vlan_challenged": "off [fixed]"
},
"hw_timestamp_filters": [],
"ipv4": {
"address": "10.0.2.15",
"broadcast": "10.0.2.255",
"netmask": "255.255.255.0",
"network": "10.0.2.0",
"prefix": "24"
},
"ipv6": [
{
"address": "fe80::5054:ff:fe4d:77d3",
"prefix": "64",
"scope": "link"
}
],
"macaddress": "52:54:00:4d:77:d3",
"module": "e1000",
"mtu": 1500,
"pciid": "0000:00:03.0",
"promisc": false,
"speed": 1000,
"timestamping": [
"tx_software",
"rx_software",
"software"
],
"type": "ether"
},
"ansible_eth1": {
"active": true,
"device": "eth1",
"features": {
"busy_poll": "off [fixed]",
"fcoe_mtu": "off [fixed]",
"generic_receive_offload": "on",
"generic_segmentation_offload": "on",
"highdma": "off [fixed]",
"hw_tc_offload": "off [fixed]",
"l2_fwd_offload": "off [fixed]",
"large_receive_offload": "off [fixed]",
"loopback": "off [fixed]",
"netns_local": "off [fixed]",
"ntuple_filters": "off [fixed]",
"receive_hashing": "off [fixed]",
"rx_all": "off",
"rx_checksumming": "off",
"rx_fcs": "off",
"rx_gro_hw": "off [fixed]",
"rx_udp_tunnel_port_offload": "off [fixed]",
"rx_vlan_filter": "on [fixed]",
"rx_vlan_offload": "on",
"rx_vlan_stag_filter": "off [fixed]",
"rx_vlan_stag_hw_parse": "off [fixed]",
"scatter_gather": "on",
"tcp_segmentation_offload": "on",
"tx_checksum_fcoe_crc": "off [fixed]",
"tx_checksum_ip_generic": "on",
"tx_checksum_ipv4": "off [fixed]",
"tx_checksum_ipv6": "off [fixed]",
"tx_checksum_sctp": "off [fixed]",
"tx_checksumming": "on",
"tx_fcoe_segmentation": "off [fixed]",
"tx_gre_csum_segmentation": "off [fixed]",
"tx_gre_segmentation": "off [fixed]",
"tx_gso_partial": "off [fixed]",
"tx_gso_robust": "off [fixed]",
"tx_ipip_segmentation": "off [fixed]",
"tx_lockless": "off [fixed]",
"tx_nocache_copy": "off",
"tx_scatter_gather": "on",
"tx_scatter_gather_fraglist": "off [fixed]",
"tx_sctp_segmentation": "off [fixed]",
"tx_sit_segmentation": "off [fixed]",
"tx_tcp6_segmentation": "off [fixed]",
"tx_tcp_ecn_segmentation": "off [fixed]",
"tx_tcp_mangleid_segmentation": "off",
"tx_tcp_segmentation": "on",
"tx_udp_tnl_csum_segmentation": "off [fixed]",
"tx_udp_tnl_segmentation": "off [fixed]",
"tx_vlan_offload": "on [fixed]",
"tx_vlan_stag_hw_insert": "off [fixed]",
"udp_fragmentation_offload": "off [fixed]",
"vlan_challenged": "off [fixed]"
},
"hw_timestamp_filters": [],
"ipv4": {
"address": "192.168.56.2",
"broadcast": "192.168.56.255",
"netmask": "255.255.255.0",
"network": "192.168.56.0",
"prefix": "24"
},
"ipv6": [
{
"address": "fe80::a00:27ff:fe65:f18f",
"prefix": "64",
"scope": "link"
}
],
"macaddress": "08:00:27:65:f1:8f",
"module": "e1000",
"mtu": 1500,
"pciid": "0000:00:08.0",
"promisc": false,
"speed": 1000,
"timestamping": [
"tx_software",
"rx_software",
"software"
],
"type": "ether"
},
"ansible_fibre_channel_wwn": [],
"ansible_fips": false,
"ansible_form_factor": "Other",
"ansible_fqdn": "vm1",
"ansible_hostname": "vm1",
"ansible_hostnqn": "",
"ansible_interfaces": [
"lo",
"eth1",
"eth0"
],
"ansible_is_chroot": true,
"ansible_iscsi_iqn": "",
"ansible_kernel": "3.10.0-1160.92.1.el7.x86_64",
"ansible_kernel_version": "#1 SMP Tue Jun 20 11:48:01 UTC 2023",
"ansible_lo": {
"active": true,
"device": "lo",
"features": {
"busy_poll": "off [fixed]",
"fcoe_mtu": "off [fixed]",
"generic_receive_offload": "on",
"generic_segmentation_offload": "on",
"highdma": "on [fixed]",
"hw_tc_offload": "off [fixed]",
"l2_fwd_offload": "off [fixed]",
"large_receive_offload": "off [fixed]",
"loopback": "on [fixed]",
"netns_local": "on [fixed]",
"ntuple_filters": "off [fixed]",
"receive_hashing": "off [fixed]",
"rx_all": "off [fixed]",
"rx_checksumming": "on [fixed]",
"rx_fcs": "off [fixed]",
"rx_gro_hw": "off [fixed]",
"rx_udp_tunnel_port_offload": "off [fixed]",
"rx_vlan_filter": "off [fixed]",
"rx_vlan_offload": "off [fixed]",
"rx_vlan_stag_filter": "off [fixed]",
"rx_vlan_stag_hw_parse": "off [fixed]",
"scatter_gather": "on",
"tcp_segmentation_offload": "on",
"tx_checksum_fcoe_crc": "off [fixed]",
"tx_checksum_ip_generic": "on [fixed]",
"tx_checksum_ipv4": "off [fixed]",
"tx_checksum_ipv6": "off [fixed]",
"tx_checksum_sctp": "on [fixed]",
"tx_checksumming": "on",
"tx_fcoe_segmentation": "off [fixed]",
"tx_gre_csum_segmentation": "off [fixed]",
"tx_gre_segmentation": "off [fixed]",
"tx_gso_partial": "off [fixed]",
"tx_gso_robust": "off [fixed]",
"tx_ipip_segmentation": "off [fixed]",
"tx_lockless": "on [fixed]",
"tx_nocache_copy": "off [fixed]",
"tx_scatter_gather": "on [fixed]",
"tx_scatter_gather_fraglist": "on [fixed]",
"tx_sctp_segmentation": "on",
"tx_sit_segmentation": "off [fixed]",
"tx_tcp6_segmentation": "on",
"tx_tcp_ecn_segmentation": "on",
"tx_tcp_mangleid_segmentation": "on",
"tx_tcp_segmentation": "on",
"tx_udp_tnl_csum_segmentation": "off [fixed]",
"tx_udp_tnl_segmentation": "off [fixed]",
"tx_vlan_offload": "off [fixed]",
"tx_vlan_stag_hw_insert": "off [fixed]",
"udp_fragmentation_offload": "on",
"vlan_challenged": "on [fixed]"
},
"hw_timestamp_filters": [],
"ipv4": {
"address": "127.0.0.1",
"broadcast": "",
"netmask": "255.0.0.0",
"network": "127.0.0.0",
"prefix": "8"
},
"ipv6": [
{
"address": "::1",
"prefix": "128",
"scope": "host"
}
],
"mtu": 65536,
"promisc": false,
"timestamping": [
"rx_software",
"software"
],
"type": "loopback"
},
"ansible_loadavg": {
"15m": 0.01,
"1m": 0.0,
"5m": 0.01
},
"ansible_local": {},
"ansible_lsb": {},
"ansible_lvm": "N/A",
"ansible_machine": "x86_64",
"ansible_machine_id": "de8354133ff61f488ee81049237365cb",
"ansible_memfree_mb": 769,
"ansible_memory_mb": {
"nocache": {
"free": 857,
"used": 133
},
"real": {
"free": 769,
"total": 990,
"used": 221
},
"swap": {
"cached": 0,
"free": 2047,
"total": 2047,
"used": 0
}
},
"ansible_memtotal_mb": 990,
"ansible_mounts": [
{
"block_available": 9543070,
"block_size": 4096,
"block_total": 10480385,
"block_used": 937315,
"device": "/dev/sda1",
"fstype": "xfs",
"inode_available": 20934421,
"inode_total": 20971008,
"inode_used": 36587,
"mount": "/",
"options": "rw,seclabel,relatime,attr2,inode64,noquota",
"size_available": 39088414720,
"size_total": 42927656960,
"uuid": "1c419d6c-5064-4a2b-953c-05b2c67edb15"
}
],
"ansible_nodename": "vm1",
"ansible_os_family": "RedHat",
"ansible_pkg_mgr": "yum",
"ansible_proc_cmdline": {
"BOOT_IMAGE": "/boot/vmlinuz-3.10.0-1160.92.1.el7.x86_64",
"LANG": "en_US.UTF-8",
"biosdevname": "0",
"console": [
"tty0",
"ttyS0,115200n8"
],
"crashkernel": "auto",
"elevator": "noop",
"net.ifnames": "0",
"no_timer_check": true,
"ro": true,
"root": "UUID=1c419d6c-5064-4a2b-953c-05b2c67edb15"
},
"ansible_processor": [
"0",
"GenuineIntel",
"Intel(R) Core(TM) i5-5300U CPU @ 2.30GHz",
"1",
"GenuineIntel",
"Intel(R) Core(TM) i5-5300U CPU @ 2.30GHz"
],
"ansible_processor_cores": 2,
"ansible_processor_count": 1,
"ansible_processor_nproc": 2,
"ansible_processor_threads_per_core": 1,
"ansible_processor_vcpus": 2,
"ansible_product_name": "VirtualBox",
"ansible_product_serial": "NA",
"ansible_product_uuid": "NA",
"ansible_product_version": "1.2",
"ansible_python": {
"executable": "/usr/bin/python",
"has_sslcontext": true,
"type": "CPython",
"version": {
"major": 2,
"micro": 5,
"minor": 7,
"releaselevel": "final",
"serial": 0
},
"version_info": [
2,
7,
5,
"final",
0
]
},
"ansible_python_version": "2.7.5",
"ansible_real_group_id": 1000,
"ansible_real_user_id": 1000,
"ansible_selinux": {
"config_mode": "enforcing",
"mode": "enforcing",
"policyvers": 31,
"status": "enabled",
"type": "targeted"
},
"ansible_selinux_python_present": true,
"ansible_service_mgr": "systemd",
"ansible_ssh_host_key_ecdsa_public": "AAAAE2VjZHNhLXNoYTItbmlzdHAyNTYAAAAIbmlzdHAyNTYAAABBBFN8FIoZjAE9IAlCVlSV/bGmBOv79/sDH5g9zulLhRq9L5kPXkrWoUseqI37v8aYIvrJGGmg9JfWRsEpsVuvyio=",
"ansible_ssh_host_key_ecdsa_public_keytype": "ecdsa-sha2-nistp256",
"ansible_ssh_host_key_ed25519_public": "AAAAC3NzaC1lZDI1NTE5AAAAIOWLbvofJjEsm1aelDG7MUrdqdLJzBoUvkFjpdlG+3+1",
"ansible_ssh_host_key_ed25519_public_keytype": "ssh-ed25519",
"ansible_ssh_host_key_rsa_public": "AAAAB3NzaC1yc2EAAAADAQABAAABAQDMylMyEMJLWhm+QcdXzaqCfnvI/7JWymHB/DCqPoP2E5wPmVTaOd0fKqizKyK4uBj7kYqQ8HUxnNxJbaM9MpKEakcT68I43Mod56bQdNEX+S0s8Jdp2
tXi1bxnYgSz6PTZl+z5E6E2n5AOvlQHpJIRqKhL/i/SKHbxzcpwAzX6pkf6lbvtodriMEaiHqUNZOZQTvXXic0CUahVias3VJWXjccY+KOHPWwM50HhFUbw//TvA8X14ENCWF/JNZeJSFLs80t8ch6RqNjbmj9nSYj4TW1UIGDcL3sbZVylo+6vyH1epm
1KhYGwoPu687LXvuyVeKYKiB/O5DQrs8vmDolT",
"ansible_ssh_host_key_rsa_public_keytype": "ssh-rsa",
"ansible_swapfree_mb": 2047,
"ansible_swaptotal_mb": 2047,
"ansible_system": "Linux",
"ansible_system_capabilities": [
""
],
"ansible_system_capabilities_enforced": "True",
"ansible_system_vendor": "innotek GmbH",
"ansible_uptime_seconds": 5729,
"ansible_user_dir": "/home/vagrant",
"ansible_user_gecos": "vagrant",
"ansible_user_gid": 1000,
"ansible_user_id": "vagrant",
"ansible_user_shell": "/bin/bash",
"ansible_user_uid": 1000,
"ansible_userspace_architecture": "x86_64",
"ansible_userspace_bits": "64",
"ansible_virtualization_role": "guest",
"ansible_virtualization_tech_guest": [
"virtualbox"
],
"ansible_virtualization_tech_host": [],
"ansible_virtualization_type": "virtualbox",
"discovered_interpreter_python": "/usr/bin/python",
"gather_subset": [
"all"
],
"module_setup": true
},
"changed": false
}
Mire jó nekünk ez a közel 600 sor?
Ha „-b” kapcsolóval futtatjuk (tehát rootként), akkor még kb 50 sort rá fog dobni. Amikor belevágunk a playbook készítésbe, jól fognak jönni a változó nevek, amikkel meg lehet különböztetni a különböző operációs rendszereket (és persze nagyon sok más változót is).
Mutatok erre egy példát:
$ ansible -m setup -a 'filter=ansible_distribution,ansible_os_family' vm1,vm2,vm3
vm3 | SUCCESS => {
"ansible_facts": {
"ansible_distribution": "Ubuntu",
"ansible_os_family": "Debian",
"discovered_interpreter_python": "/usr/bin/python3"
},
"changed": false
}
vm1 | SUCCESS => {
"ansible_facts": {
"ansible_distribution": "CentOS",
"ansible_os_family": "RedHat",
"discovered_interpreter_python": "/usr/bin/python"
},
"changed": false
}
vm2 | SUCCESS => {
"ansible_facts": {
"ansible_distribution": "AlmaLinux",
"ansible_os_family": "RedHat",
"discovered_interpreter_python": "/usr/libexec/platform-python"
},
"changed": false
}
A kérdés az volt, hogy a 3 bekapcsolt szervernek mi a disztribúció neve (ansible_distribution), és mely OS család része (ansible_os_family). Ezekre fogunk majd szűrőt készíteni, mivel a fenti 3 OS másképp old meg egy csomó feladatot, ha erre nem figyelnénk, hibára futna a playbookunk.
Viszont, ezt majd csak a következő cikkben mutatom meg, mára ennyi is elég a jóból 🙂