日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

重要

本文中含有需要您注意的重要提示信息,忽略該信息可能對您的業(yè)務造成影響,請務必仔細閱讀。

本文簡介Logtail采集數(shù)據(jù)時在運行環(huán)境、文件采集、容器采集、CheckPoint管理、Logtail采集配置、機器組、性能、錯誤處理等方面的限制。

運行環(huán)境

限制項

限制說明

體系結(jié)構(gòu)

  • Linux Logtail版本支持x86_64和arm64。

  • Windows Logtail版本支持x86_32和x86_64。

內(nèi)存

負載為空時,不開啟插件最少需要20 MB內(nèi)存,開啟插件最少需要120 MB內(nèi)存。

實際使用量與采集速率、監(jiān)控目錄和文件數(shù)量、發(fā)送阻塞程度有關。

系統(tǒng)環(huán)境

  • Linux Kernel 2.6.32及以上版本。

  • glibc 2.5及以上版本。

  • Windows Server 2004及以上版本。

Kubernetes

  • 使用DaemonSet方式采集日志時,要求Kubernetes為1.10.0及以上版本(支持Mount propagation: HostToContainer)。

  • 使用CRD方式(alibaba-log-controller組件)采集日志時,要求Kubernetes為1.16.0及以上版本。

    Kubernetes 1.7.0及以上版本提供的apiextensions.k8s.io/v1beta1 API也支持CRD能力,但Beta版本的API穩(wěn)定性取決于具體的Kubernetes版本,穩(wěn)定性未知。

Docker

采集容器標準輸出的限制說明如下:

  • 必須在Docker的配置文件daemon.json中添加"log-driver": "json-file"

  • 如果是Centos 7.4及以上版本(除Centos 8.0以外),需設置fs.may_detach_mounts=1。更多信息,請參見Bug 1468249Bug 1441737issue 34538

ACK logtail-ds組件

  • logtail-ds:每個節(jié)點至少預留0.1 Core CPU,256 MB內(nèi)存。

  • alibaba-log-controller:每個節(jié)點至少預留0.05 Core CPU,100 MB內(nèi)存。

重要

以上組件均為system-cluster-critical優(yōu)先級,集群資源不足時請勿部署,否則可能驅(qū)逐節(jié)點上原有的Pod。

文件采集

限制項

限制說明

單條日志長度

默認限制為512 KB。您可通過啟動參數(shù)max_read_buffer_size進行調(diào)整,最大不能超過8 MB。具體操作,請參見設置Logtail啟動參數(shù)

多行日志按行首正則表達式劃分后,每條日志大小限制仍為512 KB。如果日志超過512 KB,會被強制拆分為多條進行采集。例如:單條日志大小為1025 KB,則第一次處理512 KB,第二次處理512 KB,第三次處理1 KB,最終采集結(jié)果為多條不完整的日志。

文件編碼

支持UTF-8或GBK的編碼日志文件,建議使用UTF-8編碼獲得更好的處理性能。

警告

如果日志文件為其它編碼格式則會出現(xiàn)亂碼、數(shù)據(jù)丟失等問題。

日志文件大小

無限制。

日志文件輪轉(zhuǎn)

日志輪轉(zhuǎn)隊列大小默認為20。您可通過啟動參數(shù)logreader_max_rotate_queue_size進行調(diào)整。具體操作,請參見設置Logtail啟動參數(shù)

支持設置采集路徑為xxx.logxxx.log*形式。

重要

同一個Logtail實例中請勿混用兩種形式,否則可能導致同一文件匹配多個Logtail采集配置,出現(xiàn)重復采集。

如果未處理完成的文件超過20個,將導致新生成的日志丟失。此類情況,請優(yōu)先排查Logstore Shard寫入Quota是否超限,并調(diào)整Logtail并發(fā)水平。具體操作,請推薦參數(shù)值

更多信息,請參見相關技術(shù)文章

日志解析阻塞時采集行為

日志解析阻塞時,Logtail會保持該日志文件描述符為打開狀態(tài),避免阻塞期間文件被刪除,導致日志丟失。

如果解析阻塞期間出現(xiàn)多次日志文件輪轉(zhuǎn),Logtail會將文件放入輪轉(zhuǎn)隊列。

正則表達式

支持Perl兼容正則表達式。

JSON

完全支持標準JSON(RFC7159ECMA-404)。不支持非標準JSON,例如{"name": "\xE5\xAD\xA6"}

同一文件對應多個Logtail配置

默認一個文件只能匹配一個Logtail采集配置。如果文件中的日志需要被采集多份,請參見如何實現(xiàn)文件中的日志被采集多份

重要

采集多份時,文件讀取的IO、計算資源和網(wǎng)絡IO都會線性增加。

文件打開行為

Logtail會保持被采集的文件和輪轉(zhuǎn)隊列中待采集的文件處于打開狀態(tài),以保證采集數(shù)據(jù)完整性。出現(xiàn)以下情況,會關閉文件。

  • 文件超過5分鐘未被修改。

  • 發(fā)生輪轉(zhuǎn)且采集完畢。

  • Logtail采集配置發(fā)生變更。

如果無論文件是否采集完成或仍有日志寫入文件,您都希望文件在刪除后的可控時間內(nèi)釋放文件句柄,則您可通過啟動參數(shù)force_release_deleted_file_fd_timeout設置超時時間。具體操作,請參見設置Logtail啟動參數(shù)

首次日志采集行為

Logtail只采集增量的日志文件。首次發(fā)現(xiàn)文件被修改后,如果文件大小超過1 MB(容器標準輸出為512 KB),則從最后1 MB處開始采集,否則從開始位置采集。

您可通過Logtail采集配置中的tail_size_kb參數(shù)調(diào)整新文件首次采集的大小。具體操作,請參見Logtail配置

如果下發(fā)Logtail采集配置后,日志文件一直無修改,則Logtail不會采集該文件。如果需要采集歷史文件,請參見導入歷史日志文件

文件發(fā)生覆蓋的行為

Logtail采用inode+文件中前1024字節(jié)的Hash識別文件。文件被覆蓋后,如果inode或文件前1024字節(jié)Hash發(fā)生變化,則文件會作為新文件從頭開始采集,否則不會被采集。

文件發(fā)生移動的行為

文件發(fā)生移動后,如果匹配Logtail采集配置,且該Logtail采集配置之前從未匹配過該文件,則移動后的文檔將被當成新文件從頭開始采集,否則不會被采集。

文件采集歷史

Logtail會在內(nèi)存中保留文件采集歷史進度,保證文件發(fā)生變化后僅采集增量部分,超過保留范圍的日志如果發(fā)生寫入,會導致重復采集。

  • 默認最多保留1個月內(nèi)的歷史文件。

  • 如果同一目錄下歷史文件超過5,000個時,僅保留最近1周的記錄。

  • 如果同一目錄下歷史文件超過10,000個時,僅保留1天內(nèi)的記錄。

非標準文本日志

對于日志中包含\0的行,該條日志會被截斷到第一個\0處,之后部分丟棄。對于其他轉(zhuǎn)義字符(如ASCII顏色)或不可見字符,Logtail將按原樣上報。

容器采集

說明

通過Logtail采集容器日志時,除上述文件采集的限制項外,還存在如下限制項。

限制項

限制說明

首次日志采集行為

如果采集的是容器標準輸出,則首次發(fā)現(xiàn)文件修改后,默認如果文件大小超過512 KB,則從最后512 KB處開始采集,否則從頭采集。您可通過Logtail采集配置中的StartLogMaxOffset參數(shù)調(diào)整。具體操作,請參見通過DaemonSet-控制臺方式采集容器標準輸出

軟鏈接

采集容器文件中的日志時,不支持目錄及文件的軟連接。

容器生命周期

默認情況下,容器生命周期至少在10秒以上,Logtail才能采集到日志。在容器文件采集場景下,出于性能因素,Logtail將限制3分鐘內(nèi)容器更新次數(shù)為10次。您可通過啟動參數(shù)docker_config_update_intervalmax_docker_config_update_times進行調(diào)整。具體操作,請設置Logtail啟動參數(shù)

標準輸出日志輪轉(zhuǎn)

容器的標準輸出文件由docker或kubelet進行輪轉(zhuǎn),kubelet日志文件輪轉(zhuǎn)默認大小為10 MB(docker日志輪轉(zhuǎn)在ACK上被設置為100 MB),如果容器每秒輸出標準輸出的速率大于10 MB/s,將導致文件快速輪轉(zhuǎn),建議改用容器文件方式采集或修改kubelet的containerLogMaxSize參數(shù)以避免日志丟失。

標準輸出日志驅(qū)動

如果使用Docker作為容器運行時,必須在Docker的配置文件daemon.json中添加"log-driver": "json-file"

CheckPoint管理

限制項

限制說明

CheckPoint超時時間

默認情況下,如果文件超過30天未被修改,該Checkpoint將被刪除。如果在Logtail采集配置中設置了preserve:false,則文件超過30分鐘未被修改,該Checkpoint將被刪除。

CheckPoint保存策略

定期保存(15分鐘),程序退出時會自動保存。您可以通過啟動參數(shù)check_point_dump_interval進行調(diào)整。具體操作,請參見設置Logtail啟動參數(shù)

CheckPoint保存位置

保存路徑默認為/tmp/logtail_checkpoint。您可以通過啟動參數(shù)check_point_filename進行調(diào)整。具體操作,請參見設置Logtail啟動參數(shù)

宕機時的處理

由于CheckPoint是定期保存,因此宕機恢復時將從上一個完整保存的CheckPoint開始恢復,可能導致數(shù)據(jù)采集重復。調(diào)整Checkpoint保存策略以減少數(shù)據(jù)被重復采集。

Logtail采集配置

限制項

限制說明

配置更新生效的延時

從通過控制臺或API更新配置到Logtail客戶端配置生效的延時約為30秒。

配置動態(tài)加載

支持,且其中某一配置更新不影響其他配置。

單個Logtail實例的總體可加載配置數(shù)

理論上無限制。建議一臺服務器中的Logtail采集配置數(shù)不超過100個。

第三方Flusher輸出

通過日志服務控制臺或者API創(chuàng)建的配置會與Logstore建立關聯(lián),因此,當您在插件配置中使用第三方Flusher時,Logtail會默認往當前Logstore發(fā)送一份數(shù)據(jù)。

多賬號、跨賬號

支持。更多信息,請參見多賬號場景通過Logtail跨阿里云賬號采集容器日志

多地域

默認不支持,如有需求請?zhí)?span props="china">工單申請。

全球加速

支持。需在服務側(cè)開啟后,在客戶端設置全球加速。更多信息,請參見開啟全球加速服務

機器組

限制項

限制說明

機器數(shù)量

理論上無限制,建議配置不超過100,000個,否則心跳無法正常獲取。

應用配置數(shù)

理論上無限制,建議配置數(shù)不超過1,000個。

性能

限制項

限制說明

日志處理吞吐能力

原始日志流量默認限制為20 MB/s(數(shù)據(jù)被編碼壓縮后上傳,一般壓縮率為5~10倍)。超過該日志流量則有可能丟失日志,您可啟動參數(shù)max_bytes_per_sec進行調(diào)整。具體操作,請參見設置Logtail啟動參數(shù)

最大性能

單核的能力如下:

  • 極簡模式日志最大處理能力為100 MB/s。

  • 正則默認最大處理能力為20 MB/s(與正則表達式的復雜度有關)。

  • 分隔符日志最大處理能力為40 MB/s。

  • JSON日志最大處理能力為30 MB/s。

通過啟動參數(shù)process_thread_count設置多個處理線程,可提升1.5~3倍性能。

最大監(jiān)控目錄及文件數(shù)

與內(nèi)存使用限制參數(shù)mem_usage_limit有關(主機場景默認為384 MB,容器場景默認為2048 MB),分為以下四個層級:

  • 最大監(jiān)控目錄總數(shù):?mem_usage_limit/100?×5000(目錄不包含Logtail采集配置中指定的目錄黑名單)。

  • 最大監(jiān)控目錄和文件總數(shù):?mem_usage_limit/100?×50000(目錄不包含Logtail采集配置中指定的目錄黑名單,文件包含未被Logtail采集配置匹配的文件)。

  • 單個采集配置監(jiān)控目錄和文件總數(shù):?mem_usage_limit/100?×5000(目錄不包含Logtail采集配置中指定的目錄黑名單,文件包含未被Logtail采集配置匹配的文件)。

  • 單個目錄中被監(jiān)控的子目錄和文件總數(shù):?mem_usage_limit/100?×5000(目錄包含Logtail采集配置中指定的目錄黑名單,文件包含未被Logtail采集配置匹配的文件)。

當上述任一層級所監(jiān)控的目錄及文件數(shù)達到上限時,Logtail不再對該層級中剩余的目錄和文件進行監(jiān)控。您可以通過提高Logtail采集配置監(jiān)控目錄的精度或調(diào)整啟動參數(shù)mem_usage_limit來提高監(jiān)控上限。關于mem_usage_limit參數(shù)的更多信息,請參見設置Logtail啟動參數(shù)

另外,針對Linux系統(tǒng),Logtail還支持通過inotify機制對目錄進行監(jiān)聽,從而減少日志采集的延時。inotify機制所能監(jiān)控的最大目錄數(shù)(含子目錄)為3000。

資源超限處理策略

如果Logtail占用相關資源超過最大限制的時間5分鐘,則Logtail會強制重啟,此時數(shù)據(jù)可能會丟失或重復。

多租戶隔離

Logtail在配置級別實現(xiàn)隔離,即單個Logtail采集配置出現(xiàn)異常不影響其他Logtail采集配置。更多信息,請參見相關技術(shù)文章

日志采集延遲

正常情況下從日志寫入磁盤到Logtail采集到日志的延遲不超過1秒。

日志上傳策略

Logtail會將同一文件的日志自動聚合上傳,聚合條件為日志超過4000條、日志總大小超過512 KB或者日志采集時間超過3秒。任一條件滿足則觸發(fā)上傳行為

錯誤處理

限制項

限制說明

網(wǎng)絡錯誤處理

在出現(xiàn)網(wǎng)絡異常時會主動重試并自動調(diào)整重試間隔。在極端情況下,可能存在日志重復采集或丟棄的風險:

  • 客戶端發(fā)出的包被服務端接收,而服務端回應的包未能在15秒內(nèi)被客戶端接收時,客戶端的重試將導致數(shù)據(jù)的重復采集。

  • 網(wǎng)絡鏈路異常導致客戶端收到的包損壞,連續(xù)產(chǎn)生5次錯誤,最終導致數(shù)據(jù)被丟棄。

資源配額超限處理

如果數(shù)據(jù)發(fā)送速率超出Logstore最大配額,Logtail會阻塞采集并自動重試。請嘗試擴大Logstore的Shard數(shù)量。更多信息,請參見相關技術(shù)文章

客戶端時間異常

可能因為請求時間和服務端時間差別超過15分鐘,導致最大重試5次仍然不成功,數(shù)據(jù)被丟棄。請修正客戶端機器時間。

Project或Logstore不存在

重試5次仍然不成功后丟棄數(shù)據(jù)。這種情況可能是因為您通過API刪除了Logstore。請通過API刪除對應Logtail采集配置和配置應用。

鑒權(quán)失敗

重試5次仍然不成功后丟棄數(shù)據(jù)。這種情況通常有2種可能。

  • 在Logtail剛啟動時出現(xiàn),與網(wǎng)絡不穩(wěn)定,無法獲得鑒權(quán)有關。

  • 如果持續(xù)出現(xiàn),與機器無法通過HTTPS協(xié)議與日志服務Endpoint建立連接獲得鑒權(quán)有關。

其他未知錯誤

重試5次仍然不成功后丟棄數(shù)據(jù)。

超時最大嘗試時間

如果數(shù)據(jù)持續(xù)發(fā)送失敗超過6小時,該數(shù)據(jù)將被丟棄。

狀態(tài)自檢

支持異常情況下自動重啟,例如程序異常退出及使用資源超限等。