如何自动备份HDFS Name Node?

Bash

1 前言

之前的章节手动完成Hadoop HDFS的NameNode节点备份,本章重点是实现名称节点的自动备份。

2 最佳实践

2.1 环境准备

本章以Hadoop HDFS为基础,如果你没有环境,请先创建,

如何部署Hadoop Cloudera 5.10.1(CDH)?


另外,建议你先学习如下章节,否则你可能会不能很好地理解的内容,

如何备份恢复HDFS元数据-逻辑级备份?

2.2 配置自动备份

2.2.1 配置备份存储

本章以samba存储为基础,如果你没有创建,请参阅此章节,

如何配置samba客户端挂载?


注:备份存储请挂载于“/backup/nameNode”目录

2.2.2 配置备份脚本

mkdir ~/scripts/
vim ~/scripts/backupNameNode.sh

添加如下内容,

#!/bin/bash

backupDIR="/data/dfs/nn/current"
backupStorageDIR="/backup/nameNode"
dataTime=`date +"%Y-%m-%d %H:%M:%S"`
logFile="/var/log/nameNodeBackup.log"

cd $backupStorageDIR
if [ $? != 0 ]; then
        echo $dataTime" Directory mount error!" | tee -a $logFile
        exit 1
fi

if [ ! -d $backupDIR ]; then
        echo $dataTime" backupDIR not found!" | tee -a $logFile
        exit 1
fi

if [ ! -d $backupStorageDIR ]; then
        echo $dataTime" backupStorageDIR not found!" | tee -a $logFile
        exit 1
fi

# backup VERSION
cd $backupDIR
scp VERSION $backupStorageDIR

# backup fsimage
hdfs dfsadmin -fetchImage $backupStorageDIR 2> $backupStorageDIR/nn-backup.log

# Backup archive
cd $backupStorageDIR
tar --remove-files -cvjf "nn-backup-"`date +"%Y%m%d%H%M%S"`".tar.bz2" VERSION fsimage_* nn-backup.log

# Clean up expired backups
# find $backupStorageDIR -type f -name nn-backup-\*.tar.bz2 -ctime +90 -exec ls {} \;
find $backupStorageDIR -type f -name nn-backup-\*.tar.bz2 -ctime +90 -exec rm -f {} \;

– 变量“backupDIR”声明名称节点的目录,本范例为“/data/dfs/nn/current”
– 变量“backupStorageDIR”声明备份存储目录,本范例为“/backup/nameNode”
– 变量“logFile”声明备份日志路径,本范例为“/var/log/nameNodeBackup.log”

2.2.3 配置脚本触发

crontab -e

需要添加如下配置,

0 2 * * * bash ~/scripts/backupNameNode.sh
没有评论

发表回复

Bash
如何收集活跃的RHDS客户端IP地址?

1 前言 一个问题,一篇文章,一出故事。 笔者最近接到需要收集RHDS服务活跃的IP地址的工作任务, …

Bash
如何用Tigase监控postfix smtp服务?

1 前言 一个问题,一篇文章,一出故事。 笔者生产中的smtp服务器最近因为负载均衡器的路由故障而导 …

Bash
如何用Tigase监控Elasticsearch集群?

1 前言 一个问题,一篇文章,一出故事。 笔者生产中有一套Elasticsearch集群,笔者为了能 …