此文章存在严重问题,请看更新文章:自动优化及备份网站数据的解决方案(解决了一个困扰我8个月的问题)
昨天想去看看我的论坛,结果非常的卡。
最后好不容易“卡”进了控制面板,去“数据库”菜单里看看,结果显示”帖子“数据表有10000多碎片,赶紧优化一下,优化完果然速度快多了。
我想,我的主机支持Cron计划任务,我可以写一个优化、备份数据库的脚本让它定时执行啊!
说干就干,经过一番搜索,很快找到了自动优化数据库的方法,但是自动备份似乎遇到了一点麻烦,因为我找到了备份数据库的代码只能备份本地的数据库,而Godaddy文件和数据库是不在一台服务器上的。
最后,终于找到了备份远程数据库的代码。
为了充分体现开源精神,我特地把实现自动优化、备份数据库的脚本源码贴上来。
(注:请将以下代码重命名为扩展名是.sh的文件,并添加到“计划任务”里)
mysqlcheck -h数据库地址 -o 数据库名 -u用户名 -p密码 #优化数据库
cd /home/content/44/6531044/backup #转到backup目录(请按情况自己改)
stamp=$(date+%y%m%d) #将当前时间写入stamp变量
mysqldump -h数据库地址 -u用户名 -p密码 数据库名>db_backup_$stamp.sql #生成名称为db_backup_备份时间 的SQL备份文件
bzip2 -z -9 -f db_backup_$stamp.sql #使用bzip2压缩SQL备份文件
注意,以上代码在使用时,请将“数据库地址、密码”这样的文字替换为实际数据,代码中没有空格的地方,如 -h数据库地址 ,在使用时请替换为-h127.0.0.1,而不能为 -h 127.0.0.1
发表评论