LNMP笔记:切割Nginx网站日志

网站日志对分析服务器故障非常有用,所以倡萌一般都开启了,但是军哥的LNMP环境默认是没有切割网站日志的,日复一日,网站日志文件就会非常大,几个G或直接占完服务器空间都是有可能的。所以,比较好的方案就是定期切割网站日志,然后删除过老的日志文件。具

网站日志对分析服务器故障非常有用,所以跟版模板网一般都开启了,但是军哥的LNMP环境默认是没有切割网站日志的,日复一日,网站日志文件就会非常大,几个G或直接占完服务器空间都是有可能的。所以,比较好的方案就是定期切割网站日志,然后删除过老的日志文件。具体的方法,其实军哥已经给出,直接copy一份备忘:

=====转载自:http://www.vpser.net/manage/cut-nginx-log-files.html  =====

目前网上也有一些Nginx日志切割脚本,但是论坛还是有用户反映网上Nginx日志切割脚本有问题,我感觉一般是因为脚本中的参数设置问题,或者是crontab中的设置问题。

为方便lnmp一键安装包用户,我也写了一个Nginx日志切割脚本,下载地址:http://soft.vpser.net/lnmp/ext/cut_nginx_logs.sh

如果是lnmp0.5/0.6/0.7/0.8/0.9通用,用户可以仅修改log_files_name后面的要切割的日志文件名就直接使用(经跟版模板网测试 lnmp 1.0 和 1.1 也是可以使用的)。

脚本主要参数:

#设置nginx日志文件目录路径
log_files_path="/home/wwwlogs/"

#日志文件将会存放到/home/wwwlogs/年/月/日志文件名_年月日.log
log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")

#设置要切割的日志的名字,如果日志目录下面的日志文件名为vpser.net.log,则填写vpser.net,每个日志名用空格分隔
log_files_name=(access vpser.net licess)

#设置nginx文件的位置
nginx_sbin="/usr/local/nginx/sbin/nginx"

#设置日志保存的时间,天
save_days=30

如果是非lnmp一键安装包用户可以通过修改上述参数适应你的nginx环境。

将nginx日志切割脚本下载到/root/下面(然后修改上面提到的参数)。再添加自动执行,执行:crontab -e

输入:00 00 * * * /bin/bash /root/cut_nginx_logs.sh 每天0点整开始切割脚本。

==================== 转载结束 ===============================

附:输入 crontab -e  提示:     crontab: command not found,只需要运行下面的命令安装 vixie-cron crontabs 即可:

yum -y install  vixie-cron crontabs

其中,vixie-cron 是cron的主程序;crontabs 是用来安装、卸装、或列举用来驱动 cron 守护进程的表格的程序。

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

今天一个找我配置过 lnmp 环境的用户要搭建 Discuz 论坛,但是发现不支持伪静态,倡萌没怎么折腾过 Discuz,百度下才知道,原来军哥的 LNMP 环境包自带的 DZ 规则不适用于 Discuz x2.5,记录下对应的伪静态规则。 打开 LNMP 伪
军哥的 LNMP 环境包 1.2 内置了 Pureftpd 的安装程序。 安装 Pureftpd 进入lnmp解压后的目录,执行:./pureftpd.sh 会显示如下图: 按提示输入当前MySQL的root密码,输入完成,回车确认,会提示如下信息: 这一步是
约定几个目录/usr/local/php/sbin/php-fpm/usr/local/php/etc/php-fpm.conf/usr/local/php/etc/php.ini php-fpm的启动参数#测试php-fpm配置 /usr/local/php
倡萌一直都是用军哥的 lnmp 一键安装包来配置服务器环境,最近一个月来,网站流量上来了些,可能还有其他原因,导致服务器负载不太稳定,负载时不时会飙升好几倍甚至十几倍,访问就非常慢啦。昨天下午直接导致服务器 nginx 进程死掉了,想来想去,最后还是决
今天访问网站出现数据库链接错误,然后想重启 lnmp 环境,发现无法正常关闭 mysql 服务,回想一下,服务器已经平稳运行 4 个多月了,配置方面应该没有什么问题,所以想到,可能是数据盘空间用完了,果然如此。就想到应该是日志文件导致的,最后检查到 mysql
在帮客户维护网站环境的过程中,经常需要将原有数据进行备份,比较快捷的方式就是直接通过 ssh 传送文件到其他 FTP 空间,备注一下方法步骤: 假设要备份的目录为 /home/wwwroot/aaa/ ,远程FTP空间的 IP 为 55.44.33.22 1.