文章 2017-11-27 来自:开发者社区

每日一shell(八)nginx日志切割

nginx日志会随着访问量而变大,较大的日志会影响分析日志时对日志的分析和处理,我们可以使用shell对nginx日志进行定时分割,以周或者天,对于时间久的日志可以定时删除,减小磁盘的浪费 代码: # cat logrotate.sh #!/bin/bash #rotate nginx logs #writen by Aiker PATH=$PATH://usr/local/sbin:/us...

文章 2017-11-27 来自:开发者社区

shell脚本实践清除日志

    在生产环境中日志是运维人员了解和分析生产环境的第一手资料,但是日志信息的内容量相当庞大,特别在公有云环境中运行的业务系统,一般系统盘在20G-40G左右,如果没有合理的日志管理方案,很容易出现存储空间不够的现象,总结了以下几种日志处理的简单方式,作为自己的实践笔记,同时和大家一起交流学习。 1、部分日志行数太多,时间周期比较久,里面没有什么很重要的价值信息,我们可以删除...

文章 2017-11-27 来自:开发者社区

Linux下添加shell脚本使得nginx日志每天定时切割压缩

一 简介 对于nginx的日志文件,特别是access日志,如果我们不做任何处理的话,最后这个文件将会变得非常庞大,比如像下面这样: 这时,无论是出现异常时查日志,还是使用“GoAccess”等工具对日志进行分析都将会变得非常麻烦。因此,每天定时对nginx日志进行切割压缩就非常有必要了 二 实现 我的实现思路是每天晚上接近12点时定时执行脚本。其脚本内容就是将当前的nginx日志先按照当天日.....

Linux下添加shell脚本使得nginx日志每天定时切割压缩
文章 2017-11-26 来自:开发者社区

每日一shell(一)磁盘日志

请按照日期格式(xxxx-xx-xx)每日生成一个文件,例如今天生成的文件为2017-09-03.log, 并且把磁盘的使用情况写到到这个文件中。 ## vim log.sh #!/bin/bash d=`date +%F` touch $d.log df -hT > $d.log crontab -e 00 * * * /bin/sh /root/shell/log.sh  &n...

文章 2017-11-15 来自:开发者社区

shell脚本之日志拆分和监听

        这本来是朋友应聘百度运维工程师的一个shell编程题目,要求一个shell脚本,可以对日志进行拆分,把每天的放到一个文件里,可以加两个参数,保存的文件名和日期。我觉得简单了,就加大了点难度,只用一个命令,日期和文件名字用变量定义,脚本运行后,循环监听产生的日志。代码如下:     #!/bin/bash M=`date |...

文章 2017-11-15 来自:开发者社区

用shell统计访问日志里每个ip访问次数

用shell统计访问日志里每个ip访问次数【转】 今天,要统计一个系统的每个ip访问次数,于是我找到该系统访问日志,并写脚本实现。   访问日志情况: [root@qular ~]# cd /usr/local/nginx/logs/ [root@qunlar logs]# head access.log  59.151.44.186 - - [15/Dec/2014:20:1...

文章 2017-11-14 来自:开发者社区

shell分析apache日志

最近公司要做系统整体监控,所以我被分派写关于apache日志的分析,据说公司每天的access_log最大高达10G【约8千万行】,也不知道这个程序的处理效果如何。比较了PERL、sed、awk的速度发现,基本上从资源消耗上讲perl对RSS\SHARE\MEM的消耗大于sed、awk,但速度与CPU消耗明显小于2者。awk不多说了,什么都占用很大,而且一个字“慢”。最后发现sed的处理速度与C....

文章 2017-11-13 来自:开发者社区

企业shell脚本分析及切割apache日志实战

企业shell脚本分析apache日志实战 一,分析apache日志 1,有一个文件shell.sh,内容如下:[root@test3root]#catshell.sh http://www.baidu.com/index.html http://www.google.com/index.html http://www.baidu.com/get.html http://www.baidu.c.....

文章 2017-11-12 来自:开发者社区

使用Shell分析Wordpress的Nginx Access日志

使用Shell分析Nginx Access日志:找出访问最多的前50个页面 cat site.log | grep "18/Jul/2013" | grep -v "/wp-content" |grep -v "/wp-includes"|grep "html" |awk '{print $7}' | sort | uniq -c | sort -nr | head -n 50 找出访问最频...

文章 2017-11-12 来自:开发者社区

shell习题-处理日志

写一个脚本查找/data/log目录下,最后创建时间是3天前,后缀是*.log的文件,打包后发送至192.168.1.2服务上的/data/log下,并删除原始.log文件,仅保留打包后的文件 #!/bin/bash find /data/log -name “*.log” -mtime +3 > /tmp/file.li...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云日志服务SLS

SLS是一站式云原生可观测性数据平台,一站式提供数据采集、加工、查询与分析、可视化等功能。日常更新产品最新动态,最佳实践以及技术大咖的观点和经验。

+关注