A Zabbix a naplófájlok központosított megfigyelésére és elemzésére használható rönkforgatás támogatással/nélkül.
Az értesítések arra használhatók, hogy figyelmeztessék a felhasználókat, ha egy naplófájl bizonyos információkat tartalmaz húrok vagy húrminták.
A naplófájl figyeléséhez rendelkeznie kell:
A figyelt naplófájl méretkorlátja attól függ nagy fájl support.
Győződjön meg arról, hogy az agent configuration fájl:
Configure a log monitoring item.
All mandatory input fields are marked with a red asterisk.
Specifically for log monitoring items you enter:
Type | Select Zabbix agent (active) here. |
Key | Use one of the following item keys: log[] or logrt[]: These two item keys allow to monitor logs and filter log entries by the content regexp, if present. For example: log[/var/log/syslog,error] . Make sure that the file has read permissions for the 'zabbix' user otherwise the item status will be set to 'unsupported'.log.count[] or logrt.count[]: These two item keys allow to return the number of matching lines only. See supported Zabbix agent item key section for details on using these item keys and their parameters. |
Type of information | Prefilled automatically: For log[] or logrt[] items - Log ;For log.count[] or logrt.count[] items - Numeric (unsigned) .If optionally using the output parameter, you may manually select the appropriate type of information other than Log .Note that choosing a non-Log type of information will lead to the loss of local timestamp. |
Update interval (in sec) | The parameter defines how often Zabbix agent will check for any changes in the log file. Setting it to 1 second will make sure that you get new records as soon as possible. |
Log time format | In this field you may optionally specify the pattern for parsing the log line timestamp. If left blank the timestamp will not be parsed. Supported placeholders: * y: Year (0001-9999) * M: Month (01-12) * d: Day (01-31) * h: Hour (00-23) * m: Minute (00-59) * s: Second (00-59) For example, consider the following line from the Zabbix agent log file: " 23480:20100328:154718.045 Zabbix agent started. Zabbix 1.8.2 (revision 11211)." It begins with six character positions for PID, followed by date, time, and the rest of the line. Log time format for this line would be "pppppp:yyyyMMdd:hhmmss". Note that "p" and ":" chars are just placeholders and can be anything but "yMdhms". |
logrt[]
item and Zabbix agent is following the most recent of them and this most recent log file is deleted, a warning message "there are no files matching "<regexp mask>" in "<directory>"
is logged. Zabbix agent ignores log files with modification time less than the most recent modification time seen by the agent for the logrt[]
item being checked.log[]
or logrt[]
item has Update interval of 1 second, by default the agent will analyze no more than 200 log file records and will send no more than 20 matching records to Zabbix server in one check. By increasing MaxLinesPerSecond in the agent configuration file or setting maxlines parameter in the item key, the limit can be increased up to 10000 analyzed log file records and 1000 matching records sent to Zabbix server in one check. If the Update interval is set to 2 seconds the limits for one check would be set 2 times higher than with Update interval of 1 second.logrt
are supported in filename only, directory regular expression matching is not supported.logrt[]
item becomes NOTSUPPORTED if a directory where the log files are expected to be found does not exist.logrt[]
item does not make it NOTSUPPORTED. Errors of reading log files for logrt[]
item are logged as warnings into Zabbix agent log file but do not make the item NOTSUPPORTED.log[]
or logrt[]
item became NOTSUPPORTED. Zabbix can monitor its agent log file except when at DebugLevel=4.Néha előfordulhat, hogy csak az érdekes értéket szeretnénk kivonni a célfájlt ahelyett, hogy az egész sort adja vissza, ha egy szabályos kifejezés egyezés található.
A Zabbix 2.2.0 óta a naplóelemek képesek a kívánt értékek kinyerésére illesztett sorokból. Ezt a további kimenet éri el paraméter a "log" és a "logrt" elemekben.
Az 'output' paraméter használata lehetővé teszi a "rögzítési csoport" jelzését az a meccs, ami érdekelhet minket.
Tehát például
lehetővé kell tennie a bejegyzések számának visszaküldését, ahogyan az a következők tartalmában található:
Fr Feb 07 2014 11:07:36.6690 */ Thread Id 1400 (GLEWF) nagy eredmény
puffer kiosztás - /Hossz: 437136/Bejegyzések: 5948/Client Ver: >=10/RPC
ID: 41726453/Felhasználó: AUser/Űrlap: CFG:ServiceLevelAgreement
Csak a szám kerül visszaadásra, mert a \1 az első és csak rögzítő csoport: ([0-9]+).
És egy szám kinyerésének és visszaadásának képességével az érték lehet triggerek meghatározására használják.
The 'maxdelay' parameter in log items allows ignoring some older lines from log files in order to get the most recent lines analyzed within the 'maxdelay' seconds.
Specifying 'maxdelay' > 0 may lead to ignoring important log file records and missed alerts. Use it carefully at your own risk only when necessary.
By default items for log monitoring follow all new lines appearing in the log files. However, there are applications which in some situations start writing an enormous number of messages in their log files. For example, if a database or a DNS server is unavailable, such applications flood log files with thousands of nearly identical error messages until normal operation is restored. By default, all those messages will be dutifully analyzed and matching lines sent to server as configured in log
and logrt
items.
Built-in protection against overload consists of a configurable 'maxlines' parameter (protects server from too many incoming matching log lines) and a 10*'maxlines' limit (protects host CPU and I/O from overloading by agent in one check). Still, there are 2 problems with the built-in protection. First, a large number of potentially not-so-informative messages are reported to server and consume space in the database. Second, due to the limited number of lines analyzed per second the agent may lag behind the newest log records for hours. Quite likely, you might prefer to be sooner informed about the current situation in the log files instead of crawling through old records for hours.
The solution to both problems is using the 'maxdelay' parameter. If 'maxdelay' > 0 is specified, during each check the number of processed bytes, the number of remaining bytes and processing time is measured. From these numbers the agent calculates an estimated delay - how many seconds it would take to analyze all remaining records in a log file.
If the delay does not exceed 'maxdelay' then the agent proceeds with analyzing the log file as usual.
If the delay is greater than 'maxdelay' then the agent ignores a chunk of a log file by "jumping" over it to a new estimated position so that the remaining lines could be analyzed within 'maxdelay' seconds.
Note that agent does not even read ignored lines into buffer, but calculates an approximate position to jump to in a file.
The fact of skipping log file lines is logged in the agent log file like this:
14287:20160602:174344.206 item:"logrt["/home/zabbix32/test[0-9].log",ERROR,,1000,,,120.0]"
logfile:"/home/zabbix32/test1.log" skipping 679858 bytes
(from byte 75653115 to byte 76332973) to meet maxdelay
The "to byte" number is approximate because after the "jump" the agent adjusts the position in the file to the beginning of a log line which may be further in the file or earlier.
Depending on how the speed of growing compares with the speed of analyzing the log file you may see no "jumps", rare or often "jumps", large or small "jumps", or even a small "jump" in every check. Fluctuations in the system load and network latency also affect the calculation of delay and hence, "jumping" ahead to keep up with the "maxdelay" parameter.
Setting 'maxdelay' < 'update interval' is not recommended (it may result in frequent small "jumps").
A logrt
a copytruncate
opcióval különböző naplófájlokat feltételez különböző rekordokkal rendelkeznek (legalábbis az időbélyegük különbözik), ezért a kezdeti blokkok MD5 összege (legfeljebb az első 512 bájt) lesz különböző. Két fájl azonos MD5-ös kezdeti blokkokkal azt jelenti az egyik az eredeti, a másik egy másolat.
A logrt
a copytruncate
opcióval törekszik a helyes feldolgozásra naplófájl-másolatok másolatok jelentése nélkül. Azonban olyan dolgok, mint több naplófájl másolat készítése ugyanazzal az időbélyeggel, naplófájllal rotáció gyakrabban, mint logrt[] tétel frissítési időköz, gyakori a szer újraindítása nem javasolt. Az ügynök mindent megpróbál kezelni ezek a helyzetek ésszerűen jók, de jó eredmény nem garantálható minden körülmények között.
Amikor a Zabbix ügynök elindul, megkapja az aktív ellenőrzések listáját a Zabbixtól szerver vagy proxy. A log*[] metrikákhoz megkapja a feldolgozott naplóméretet és a módosítási idő annak megállapítására, hogy honnan kezdje el a naplófájl figyelését. A naplófájl tényleges méretétől és a fájlonként jelentett módosítási időtől függően rendszerben az ügynök úgy dönt, hogy folytatja a naplófájl figyelését a feldolgozott naplóméretet, vagy elemezze újra a naplófájlt az elejétől.
Egy futó ügynök nagyobb attribútumkészletet tart fenn az összes megfigyelt nyomon követéséhez naplófájlokat az ellenőrzések között. Ez a memóriában lévő állapot elveszik, amikor az ügynök megállt.
Az új opcionális persistent_dir paraméter megadja a könyvtárat a log[], log.count[], logrt[] vagy logrt.count[] elem ezen állapotának tárolása egy fájlban. A naplóelem állapota visszaáll az állandó fájlból a következő után A Zabbix ügynök újraindul.
Az elsődleges felhasználási eset a tükrözött fájlban található naplófájl figyelése rendszer. Egy bizonyos pillanatig a naplófájl mindkét tükörbe íródik. Akkor a tükrök szét vannak osztva. Az aktív példányon a naplófájl még mindig növekszik, egyre új rekordok. A Zabbix ügynök elemzi és elküldi a feldolgozott naplók méretét és módosítási idő a szerverhez. A passzív másolaton a naplófájl változatlan marad, jóval az aktív példány mögött. Később az operációs rendszer és a Zabbix ügynök újraindult a passzív másolatról. A feldolgozott napló mérete és módosítási ideje a kiszolgálótól kapott Zabbix ügynök nem biztos, hogy érvényes az adott helyzetben passzív másolat. A naplófájlok figyelésének folytatása onnan, ahol az ügynök elhagyta off a fájlrendszer tükörfelosztásának pillanatában az ügynök visszaállítja állapotát az állandó fájl.
Indításkor a Zabbix ügynök semmit sem tud az állandó fájlokról. Csak azután az aktív ellenőrzések listájának vétele a Zabbix szervertől (proxy) az ügynök látja, hogy néhány naplózás Az elemeket meghatározott könyvtárakban lévő állandó fájloknak kell támogatniuk.
Az ügynök működése során a perzisztens fájlok megnyitásra kerülnek írásra (a fopen(fájlnév, "w")), és felülírják a legfrissebb adatokkal. Az esélye annak állandó fájladatok elvesztése, ha a felülírás és a fájlrendszer tükör kettéválik történjen ugyanakkor nagyon kicsi, nincs különösebb kezelés hozzá. Írás perzisztens fájlba NEM követi kényszerített szinkronizálás a tárolóval média (fsync() nincs hívva).
A legfrissebb adatokkal történő felülírás az egyeztetés sikeres jelentése után történik naplófájl rekord vagy metaadat (feldolgozott naplóméret és módosítási idő) a Zabbix szerver. Ez olyan gyakran előfordulhat, mint minden elem ellenőrzése, hogy a naplófájl megtartja-e változó.
Nincs különleges művelet az ügynök leállítása során.
Miután megkapta az aktív ellenőrzések listáját, az ügynök elavultnak és tartósnak jelöli fájlokat az eltávolításhoz. Egy állandó fájl elavulttá válik, ha: 1) a megfelelő a naplóelem már nem figyelhető meg, 2) egy naplóelemet újrakonfigurálnak egy másikkal persistent_ir hely, mint korábban.
Az eltávolítás 24 órás késéssel történik, mivel a naplófájlok NEM TÁMOGATOTT állapotban vannak nem szerepelnek az aktív ellenőrzések listáján, de TÁMOGATOTT válhatnak később, és az állandó fájljaik hasznosak lesznek.
Ha az ügynököt 24 óra lejárta előtt leállítják, akkor az elavult fájlok is leállnak nem törölhető, mivel a Zabbix ügynök nem kap információt a tartózkodási helyéről Zabbix szerver már.
Egy naplóelem persistent_dir visszaállítása a régire persistent_dir hely, amíg az ügynök le van állítva, a törlés nélkül régi perzisztens fájl a felhasználótól - az ügynök állapotának visszaállítását eredményezi a régiből állandó fájl, amely elmulasztott üzeneteket vagy hamis riasztásokat eredményez.
A Zabbix ügynök kulcsaik alapján különbözteti meg az aktív ellenőrzéseket. Például, a logrt[/home/zabbix/test.log] és a logrt[/home/zabbix/test.log,] különböző tételek. A logrt[/home/zabbix/test.log,,,10] elem módosítása itt: a logrt[/home/zabbix/test.log,,,20] kezelőfelület törlését eredményezi elem logrt[/home/zabbix/test.log,,,10] az ügynök aktív ellenőrzéseinek listájáról és logrt[/home/zabbix/test.log,,,20] elem létrehozása (egyes attribútumok átviszik a módosításokon a frontend/szerveren, nem pedig az ügynökön).
A fájlnév az elemkulcs MD5 összegéből áll, hozzáfűzve az elemkulcs hosszát az ütközések lehetőségének csökkentése érdekében. Például az állam logrt[/home/zabbix50/test.log,,,,,,,,/home/zabbix50/agent_private] elem a c963ade4008054813bbc0a650bb8e09266 állandó fájlban tárolandó.
Több naplóelem is használhatja ugyanazt a persistent_dir értéket.
A persistent_dir az adott fájlrendszer figyelembevételével kerül meghatározásra elrendezések, rögzítési pontok és rögzítési lehetőségek, valamint a tárolási tükrözés konfigurációja - az állandó fájlnak ugyanazon a tükrözött fájlrendszeren kell lennie, mint a megfigyeltnek log fájl.
Ha a persistent_dir könyvtárat nem lehet létrehozni vagy nem létezik, vagy hozzáférhet A Zabbix ügynök jogai nem teszik lehetővé a fájlok létrehozását/írását/olvasását/törlését A naplóelem NEM TÁMOGATVA lesz.
Ha az ügynök működése során eltávolítják a perzisztens tárolófájlok hozzáférési jogait vagy más hiba lép fel (pl. a lemez megtelt), akkor a hibák bekerülnek az ügynöknaplóba fájlt, de a naplóelem nem válik NEM TÁMOGATVA.
A tétel állandó fájlja minden köteg sikeres elküldése után frissül adatok (tartalmazza az elem adatait) a szerverre. Például az alapértelmezett "BufferSize" 100. Ha egy naplóelem 70 egyező rekordot talált, akkor az első 50 rekord egy kötegben kerül elküldésre, az állandó fájl frissül, majd a maradék 20 a rekordok elküldésre kerülnek (talán némi késéssel, ha több adat gyűlik össze) be a 2. köteg, és az állandó fájl ismét frissül.
Each matching line from log[]
and logrt[]
item and a result of each log.count[]
and logrt.count[]
item check requires a free slot in the designated 50% area in the agent send buffer. The buffer elements are regularly sent to server (or proxy) and the buffer slots are free again.
While there are free slots in the designated log area in the agent send buffer and communication fails between agent and server (or proxy) the log monitoring results are accumulated in the send buffer. This helps to mitigate short communication failures.
During longer communication failures all log slots get occupied and the following actions are taken:
log[]
and logrt[]
item checks are stopped. When communication is restored and free slots in the buffer are available the checks are resumed from the previous position. No matching lines are lost, they are just reported later.log.count[]
and logrt.count[]
checks are stopped if maxdelay = 0
(default). Behavior is similar to log[]
and logrt[]
items as described above. Note that this can affect log.count[]
and logrt.count[]
results: for example, one check counts 100 matching lines in a log file, but as there are no free slots in the buffer the check is stopped. When communication is restored the agent counts the same 100 matching lines and also 70 new matching lines. The agent now sends count = 170 as if they were found in one check.log.count[]
and logrt.count[]
checks with maxdelay > 0
: if there was no "jump" during the check, then behavior is similar to described above. If a "jump" over log file lines took place then the position after "jump" is kept and the counted result is discarded. So, the agent tries to keep up with a growing log file even in case of communication failure.If a regular expression used in log[]
, logrt[]
, log.count[]
or logrt.count[]
item cannot be compiled by PCRE or PCRE2 library then the item goes into NOTSUPPORTED state with an error message. To continue monitoring the log item, the regular expression should be fixed.
If the regular expression compiles successfully, but fails at runtime (on some or on all log records), then the log item remains supported and monitoring continues. The runtime error is logged in the Zabbix agent log file (without the log file record).
Note that the logging of regular expression runtime errors is supported since Zabbix 6.4.6.
The logging rate is limited to one runtime error per check to allow Zabbix agent to monitor its own log file. For example, if 10 records are analyzed and 3 records fail with a regexp runtime error, one record is produced in the agent log.
Exception: if MaxLinesPerSecond=1 and update interval=1 (only 1 record is allowed to analyze per check) then regexp runtime errors are not logged.
zabbix_agentd logs the item key in case of a runtime error, zabbix_agent2 logs the item ID to help identify which log item has runtime errors. It is recommended to redesign the regular expression in case of runtime errors.