Elasticsearch:Cluster备份 Snapshot及Restore API

Elasticsearch提供了replica解决方案,它可以帮我们解决了如果有一个或多个node失败了,那么我们的数据还是可以保证完整的情况,并且搜索还可以继续进行。但是,有一种情况是我们的所有的node,或者有一部分node失败,可能会造成我们的数据的丢失。也就是说replca不能提供一种灾难性的保护机制。我们需要一种完整的备份机制。

Snapshot及Restore

在Elastic里,我们提供了一个叫做snapshot及restore API的接口。使您可以使用数据和状态快照备份您的Elasticsearch索引和集群。 快照很重要,因为快照会在出现问题时提供您数据的副本。 如果需要回滚到旧版本的数据,则可以从存储库中还原快照。

如上图所示,我们可以把当前index的状态及数据存入到一个repository里去。

Repository

为了能够做备份,我们首先必须创建一个repository,也就是一个仓库。你可以为一个cluster创建多个仓库。目前支持的仓库类型有:

1
2
3
4
5
6
7
8
# Elasticsearch支持仓库类型 
Respository 配置类型
Shared file system "type": "fs"
Read-only URL "type": "url"
S3 "type": "s3"
HDFS "type": "hdfs"
Azure "type": "azure"
Google Cloud Storage "type": "gcs"

这里需要注意的是: S3, HDFS, Azure and GCS 需要相应的插件进行安装才可以。

注册仓库

在一个snapshot可以被使用之前,我们必须注册一个仓库(repository)。

  • 使用_snapshot 终点
  • 文件夹必须对所有的node可以访问
  • path.repo必须在所有的node上进行配置,针对一个fs的repository来说
    1
    2
    3
    4
    5
    6
    7
    PUT _snapshot/my_repo 
    {
    "type": "fs",
    "settings": {
    "location": "/mnt/my_repo_folder"
    }
    }

这里/mnt/my_repo_folder必须加进所有node的elasticsearch.yml文件中。

fs resposity设置:

1
2
3
4
5
6
7
8
9
10
PUT _snapshot/my_repo
{
"type": "fs",
"settings": {
"location": "/mnt/my_repo_folder",
"compress": true,
"max_restore_bytes_per_sec": "40mb",
"max_snapshot_bytes_per_sec": "40mb"
}
}

这里,我们定义compress为true,表明我们希望压缩。通过max_restore_bytes_per_sec及max_snapshot_bytes_per_sec的定义,我们可以来限制数据的snapshot及恢复的数据速度。

S3 repository设置

为了能能使用S3仓库,我们必须使用如下的命令来进行安装插件:

1
./bin/elasticsearch-plugin install repository-s3

注意,上面的命令必须是在Elasticsearch的安装目录下进行执行。我们可以通过如下的命令来进行配置:

1
2
3
4
5
6
7
PUT _snapshot/my_s3_repo
{
"type": "s3",
"settings": {
"bucket": "my_s3_bucket_name"
}
}

这里的my_s3_bucket_name是我们在AWS上定义的S3 bucket。更多关于S3的配置可以参阅链接 Repository Settings(https://www.elastic.co/guide/en/elasticsearch/plugins/current/repository-s3-repository.html)。

Snapshot所有的索引

一旦我们的repository已经被配置好了,那么我们就可以利用_snapshot终点来进行snapshot。必须注意的是snapshot只拷贝在执行该命令时的所有的数据,而在之后的所有的数据将不被备份。snapshot是按照增量来进行备份的,也就是说它只拷贝从上次执行snapshot之后变化的部分。通常来说,每隔30分钟进行一次备份是足够的。

snapshot命令:

1
PUT _snapshot/my_repo/my_snapshot_1

这里必须注意的几点:

  • my_repo是指的我们在上面定义的repository的名字
  • my_snapshot_1指的是一个唯一的snapshot名字
  • 没有特定的索引名字被指出,那么它指的是所有的open索引

如果我们想指定某个或某些特定的索引,那么我们可以使用如下的命令来执行备份(snapshot)

1
2
3
4
5
6
PUT _snapshot/my_repo/my_logs_snapshot_1
{
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": true
}

这里它表述我们相对所有以logs-为开头的索引进行备份。

我们可以通过如下的命令来进行监测正在进行的snapshot的进度:

1
GET _snapshot/my_repo/my_snapshot_2/_status

管理snapshots

获取所有在repo中的snapshots:

1
GET _snapshot/my_repo/_all

获取某个特定snapshot的信息

1
GET _snapshot/my_repo/my_snapshot_1

删除一个snapshot

1
DELETE _snapshot/my_repo/my_snapshot_1

恢复一个snapshot

我们可以使用_restore终点来从一个snapshot恢复所有的索引:

1
POST _snapshot/my_repo/my_snapshot_2/_restore

我们也可以通过如下的方法来恢复某个或某些特定的索引:

1
2
3
4
5
6
POST _snapshot/my_repo/my_snapshot_2/_restore
{
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": false
}

在很多的时候,我们想把snapshot中的索引恢复到一个不同名字的索引之中,从而不用覆盖现有的。我们可以通过rename_pattern及rename_replacement来进行配置:

1
2
3
4
5
6
7
8
POST _snapshot/my_repo/my_snapshot_2/_restore
{
"indices": "logs-*",
"ignore_unavailable": true,
"include_global_state": false,
"rename_pattern": "logs-(.+)",
"rename_replacement": "restored-logs-$1"
}

在上面,我们把所有的以logs-为开头的索引恢复到以restored-logs-的开头的索引之中来。

Restore到一个新的cluster

针对这个情况,我们可以恢复从另外一个cluster中备份的snapshot到当前的cluster中来。我们必须在新的cluster中注册这个repository才可以进行下面的操作。

从上面我们可以看出来,my_repo必须对两个cluster都是可见的才可以。

动手实践

准备数据:

运行起来我们的Kibana:

我们分别点击上面的1和2处:

点击上面的“Add data”。这样我们就可以把我们的kibana_sample_data_logs索引加载到Elasticsearch中。

1
GET _cat/indices/kibana_sample_data_logs

注册repository

首先我们在我们的电脑上创建一个如下的目录:

1
/shared_folder/my_repo

我们在termimal中打入如下的命令:

1
mkdir -p shared_folder/my_repo/

1
2
3
4
$ pwd
/Users/liuxg/shared_folder
bogon:shared_folder liuxg$ ls -al
drwxr-xr-x 2 liuxg staff 64 Nov 13 13:23 my_repo

将以下path.repo属性添加到我们运行的所有node的elasticsearch.yml文件中:

1
path.repo: /Users/liuxg/shared_folder/my_repo

注意,针对你的情况,你需要改动这里的path路径。

然后启动我们的Elasticsearch及Kibana。紧接着,我们在Kibana console中打入如下的命令:

1
2
3
4
5
6
7
PUT _snapshot/my_local_repo
{
"type": "fs",
"settings": {
"location": "/Users/liuxg/shared_folder/my_repo"
}
}

注意这里的location是根据我自己的电脑的路径来设置的。你需要根据自己实际的路径进行修改。在这里my_local_repo是我们的repository名称。

接下来,我们打入如下的命令来对我们的kibana_sample_data_logs索引进行snapshot:

1
2
3
4
5
6
PUT _snapshot/my_local_repo/snapshot_1
{
"indices": "kibana_sample_data_logs",
"ignore_unavailable": true,
"include_global_state": true
}

我们可以通过如下的命令来查看snapshot:

1
GET _snapshot/my_local_repo/_all

我们可以在右边看到snapshot_1出现在列表之中,说明我们已经成功地创建了这个snapshot。

我们接下来可以通过如下的命令来删除kibana_sample_data_logs索引:

1
DELETE kibana_sample_data_logs

这样我们彻底地删除了这个索引。那么我们该如何把之前备份的数据恢复回来呢?

在Kibana中打入如下的命令:

1
2
3
4
5
6
POST _snapshot/my_local_repo/snapshot_1/_restore
{
"indices": "kibana_sample_data_logs",
"ignore_unavailable": true,
"include_global_state": false
}

在执行完上面的命令后,我们可以通过如下的命令来查看恢复后的kibana_sample_data_logs索引:

1
GET kibana_sample_data_logs/_count

显然我们已经成功地恢复了我们之前备份的数据。

这个时候,如果我们去到我们的snapshot文件目录,我们可以看到:

1
2
3
4
5
6
$ pwd
/Users/liuxg/shared_folder/my_repo
bogon:my_repo liuxg$ ls
index-0 meta-TzygGpJ1SOK5yJdsmc1lng.dat
index.latest snap-TzygGpJ1SOK5yJdsmc1lng.dat
indices

显然在文件目录中,已经有新生产的文件了。

-------------本文结束 感谢您的阅读-------------
如果觉得我的文章对您有用,请随意打赏.您的支持将鼓励我继续创作!

  • 本文标题: Elasticsearch:Cluster备份 Snapshot及Restore API
  • 文章作者: 永夜初晗凝碧天
  • 发布时间: 2020年01月02日 - 10:01:38
  • 更新时间: 2020年01月02日 - 10:01:63
  • 本文链接: https://yongnights.github.io/2020/01/02/Elasticsearch:Cluster备份 Snapshot及Restore API/
  • 版权声明: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。