整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:

如何将Elasticsearch的快照备份至OSS

Elasticsearch 是一个开源的分布式 RESTful 搜索和分析引擎。它可以在近实时条件下,存储,查询和分析海量的数据。它还支持将快照备份至HDFS/S3上面,而阿里云OSS兼容S3的API,本文将介绍如何使用ES的Repository-S3插件将快照备份至OSS。

部署与配置

首先,我们需要安装repository-s3,可以参考官方文档:

https://www.elastic.co/guide/en/elasticsearch/plugins/7.2/repository-s3.html

启动ES,我们可以从log中看到,ES已经load了这个plugin:

[2019-07-15T14:12:09,225][INFO ][o.e.p.PluginsService ] [master] loaded module [aggs-matrix-stats]
[2019-07-15T14:12:09,225][INFO ][o.e.p.PluginsService ] [master] loaded module [analysis-common]
[2019-07-15T14:12:09,225][INFO ][o.e.p.PluginsService ] [master] loaded module [ingest-common]
[2019-07-15T14:12:09,226][INFO ][o.e.p.PluginsService ] [master] loaded module [ingest-geoip]
[2019-07-15T14:12:09,226][INFO ][o.e.p.PluginsService ] [master] loaded module [ingest-user-agent]
[2019-07-15T14:12:09,226][INFO ][o.e.p.PluginsService ] [master] loaded module [lang-expression]
[2019-07-15T14:12:09,226][INFO ][o.e.p.PluginsService ] [master] loaded module [lang-mustache]
[2019-07-15T14:12:09,227][INFO ][o.e.p.PluginsService ] [master] loaded module [lang-painless]
[2019-07-15T14:12:09,227][INFO ][o.e.p.PluginsService ] [master] loaded module [mapper-extras]
[2019-07-15T14:12:09,227][INFO ][o.e.p.PluginsService ] [master] loaded module [parent-join]
[2019-07-15T14:12:09,227][INFO ][o.e.p.PluginsService ] [master] loaded module [percolator]
[2019-07-15T14:12:09,227][INFO ][o.e.p.PluginsService ] [master] loaded module [rank-eval]
[2019-07-15T14:12:09,228][INFO ][o.e.p.PluginsService ] [master] loaded module [reindex]
[2019-07-15T14:12:09,228][INFO ][o.e.p.PluginsService ] [master] loaded module [repository-url]
[2019-07-15T14:12:09,228][INFO ][o.e.p.PluginsService ] [master] loaded module [transport-netty4]
[2019-07-15T14:12:09,228][INFO ][o.e.p.PluginsService ] [master] loaded plugin [repository-s3]
[2019-07-15T14:12:12,375][INFO ][o.e.d.DiscoveryModule ] [master] using discovery type [zen] and seed hosts providers [settings]
[2019-07-15T14:12:12,801][INFO ][o.e.n.Node ] [master] initialized
[2019-07-15T14:12:12,802][INFO ][o.e.n.Node ] [master] starting ...

然后,我们需要将OSS使用的Access Key和Secret Key配置到ES去,分别执行下面的命令:

bin/elasticsearch-keystore add s3.client.default.access_key
bin/elasticsearch-keystore add s3.client.default.secret_key

运行

首先,我们创建一个备份:

[root@master ~]# curl -XPUT 'http://localhost:9200/_snapshot/test' -H 'Content-Type: application/json' -d '{ "type": "s3", "settings": { "bucket": "hadoop-oss-test", "endpoint": "oss-cn-zhangjiakou-internal.aliyuncs.com"} }'
{"acknowledged":true}

NOTE: 上面的命令默认使用https协议来传输数据,如果想使用http协议,需要将"protocol": "http", "disable_chunked_encoding": true加到settings里面(这个特性将会在新版本发布后可用)。

可以使用下面的命令来确实创建是否成功:

[root@master ~]# curl -XGET localhost:9200/_snapshot/test?pretty
{
 "test" : {
 "type" : "s3",
 "settings" : {
 "bucket" : "hadoop-oss-test",
 "endpoint" : "oss-cn-zhangjiakou-internal.aliyuncs.com"
 }
 }
}

我们可以写入一些测试数据到ES,然后看下目前集群的索引信息:

[root@master ~]# curl -X GET "localhost:9200/_cat/indices?v"
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
green open sales 89ouBy6RQsuT34QRbn_jeQ 10 0 271786 0 15mb 15mb
green open customer fQCMEvXsQOu0UgMm1SAJlA 5 0 10000 0 717kb 717kb

假设我们只备份sales索引:

[root@master ~]# curl -XPUT 'http://localhost:9200/_snapshot/test/sales' -H 'Content-Type: application/json' -d '{ "indices": "sales" }'
{"accepted":true}

然后我们可以从OSS控制台看到备份的结果:

现在我们再往sales索引里面写一些数据:

[root@master ~]# curl -X GET "localhost:9200/_cat/indices?v"
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
green open sales 89ouBy6RQsuT34QRbn_jeQ 10 0 281502 0 15.6mb 15.6mb
green open customer fQCMEvXsQOu0UgMm1SAJlA 5 0 10000 0 717kb 717kb

我们利用刚才备份到OSS的快照来恢复sales索引,分别执行下面的命令:

[root@master ~]# curl -XPOST localhost:9200/sales/_close
{"acknowledged":true,"shards_acknowledged":true,"indices":{"sales":{"closed":true}}}
[root@master ~]# curl -XPOST 'http://localhost:9200/_snapshot/test/sales/_restore?pretty'
{
 "accepted" : true
}
[root@master ~]# curl -X GET "localhost:9200/_cat/indices?v"
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
green open sales 89ouBy6RQsuT34QRbn_jeQ 10 0 271786 0 15mb 15mb
green open customer fQCMEvXsQOu0UgMm1SAJlA 5 0 10000 0 717kb 717kb

我们可以看到,sales索引跟之前的一致。

参考资料

https://www.elastic.co/guide/en/elasticsearch/plugins/7.2/repository-s3.html

https://www.elastic.co/cn/products/elasticsearch

作者:冷月_wjh

者| 王涛(扬礼)、车漾(必嘫)
来源|阿里巴巴云原生公众号

什么是 Fluid

Fluid 是一个开源的 Kubernetes 原生的分布式数据集编排和加速引擎,主要服务于云原生场景下的数据密集型应用,例如大数据应用、AI 应用等。通过 Kubernetes 服务提供的数据层抽象,可以让数据像流体一样在诸如 HDFS、OSS、Ceph 等存储源和 Kubernetes 上层云原生应用计算之间灵活高效地移动、复制、驱逐、转换和管理。而具体数据操作对用户透明,用户不必再担心访问远端数据的效率、管理数据源的便捷性,以及如何帮助 Kuberntes 做出运维调度决策等问题。用户只需以最自然的 Kubernetes 原生数据卷方式直接访问抽象出来的数据,剩余任务和底层细节全部交给 Fluid 处理。

Fluid 项目当前主要关注数据集编排和应用编排这两个重要场景。数据集编排可以将指定数据集的数据缓存到指定特性的 Kubernetes 节点,而应用编排将指定该应用调度到可以或已经存储了指定数据集的节点上。这两者还可以组合形成协同编排场景,即协同考虑数据集和应用需求进行节点资源调度。

然后介绍 Fluid 中 Dataset 的概念,数据集是逻辑上相关的一组数据的集合,会被运算引擎使用,比如大数据的 Spark,AI 场景的 TensorFlow,而关于数据集智能的应用和调度会创造工业界的核心价值。Dataset 的管理实际上也有多个维度,比如安全性,版本管理和数据加速。

我们希望从数据加速出发,对于数据集的管理提供支持。在 Dataset 上面,我们通过定义 Runtime 这样一个执行引擎来实现数据集安全性,版本管理和数据加速等能力,Runtime 定义了一系列生命周期的接口,可以通过实现这些接口来支持数据集的管理和加速,目前 Fluid 中支持的 Runtime 有 AlluxioRuntime 和 JindoRuntime 两种。Fluid 的目标是为 AI 与大数据云原生应用提供一层高效便捷的数据抽象,将数据从存储抽象出来从而达到如下功能:

  • 通过数据亲和性调度和分布式缓存引擎加速,实现数据和计算之间的融合,从而加速计算对数据的访问。
  • 将数据独立于存储进行管理,并且通过 Kubernetes 的命名空间进行资源隔离,实现数据的安全隔离。
  • 将来自不同存储的数据联合起来进行运算,从而有机会打破不同存储的差异性带来的数据孤岛效应。

什么是 JindoRuntime

如果要了解 Fluid 的 JindoRuntime,先要介绍 JindoFS。它是 JindoRuntime 的引擎层。

JindoFS 是阿里云针对 OSS 开发的自研大数据存储优化引擎,完全兼容 Hadoop 文件系统接口,给客户带来更加灵活、高效的计算存储方案,目前已验证支持阿里云 EMR 中所有的计算服务和引擎:Spark、Flink、Hive、MapReduce、Presto、Impala 等。JindoFS 有两种使用模式,块存储(Block)模式和缓存(Cache)模式。Block 模式将文件内容以数据块的形式存放在 OSS 上并在本地可选择使用数据备份来进行缓存加速,使用本地的 namespace 服务管理元数据,从而通过本地元数据以及块数据构建出文件数据。Cache 模式将文件存储在 OSS 上,该模式兼容现有的 OSS 文件系统,用户可以通过 OSS 访问原有的目录结构以及文件,同时该模式提供数据以及元数据的缓存,加速用户读写数据的性能。使用该模式的用户无需迁移数据到 OSS,可以无缝对接现有 OSS 上的数据,在元数据同步方面用户可以根据不同的需求选择不同的元数据同步策略。

在 Fluid 中,JindoRuntime 也是使用 JindoFS 的 Cache 模式进行远端文件的访问和缓存,如您需要在其他环境单独使用 JindoFS 获得访问 OSS 的能力,您也可以下载我们的 JindoFS SDK 按照使用文档进行部署使用。JindoRuntime 来源于阿里云 EMR 团队自研 JindoFS 分布式系统,是支撑 Dataset 数据管理和缓存的执行引擎实现。Fluid 通过管理和调度 Jindo Runtime 实现数据集的可见性、弹性伸缩、数据迁移、计算加速等。在 Fluid 上使用和部署 JindoRuntime 流程简单、兼容原生 K8s 环境、可以开箱即用。深度结合对象存储特性,使用 Navite 框架优化性能,并支持免密、checksum 校验等云上数据安全功能。

JindoRuntime 的优势

JindoRuntime 提供对 Aliyun OSS 对象存储服务的访问和缓存加速能力,并且利用 FUSE 的 POSIX 文件系统接口实现可以像本地磁盘一样轻松使用 OSS 上的海量文件,具有以下特点:

1. 性能卓越

  • OSS 的读写性能突出:深度结合 OSS 进行读写效率和稳定性的增强,通过 native 层优化对 OSS 访问接口,优化冷数据访问性能,特别是小文件读写。
  • 分布式缓存策略丰富:支持单 TB 级大文件缓存、元数据缓存策略等。在大规模 AI 训练和数据湖场景实测中有突出的性能优势。

2. 安全可靠

  • 认证安全:支持阿里云上 STS 免密访问和 K8s 原生的秘钥加密。
  • 数据安全:checksum 校验、客户端数据加密等安全策略,保护云上数据安全和用户信息等。

3. 简单易用

支持原生 K8s 环境,利用自定义资源定义,对接数据卷概念。使用部署流程简单,可以开箱即用。

4. 轻量级

底层基于 c++ 代码,整体结构轻量化,各种 OSS 访问接口额外开销较小。

JindoRuntime 性能怎么样

我们使用 ImageNet 数据集基于 Kubernetes 集群并使用 Arena 在此数据集上训练 ResNet-50 模型,基于 JindoFS 的 JindoRuntime 在开启本地缓存的情况下性能大幅度优于开源 OSSFS,训练耗时缩短了 76%,该测试场景会在后续文章中进行详细介绍。

如何快速上手使用 JindoRuntime

使用 JindoRuntime 流程简单,在准备好基本 K8s 和 OSS 环境的条件下,您只需要耗费 10 分钟左右时间即可部署好需要的 JindoRuntime 环境,您可以按照下面的流程进行部署。

  • 创建命名空间
kubectl create ns fluid-system
  • 下载 fluid-0.5.0.tgz

**

  • 使用 Helm 安装 Fluid
helm install --set runtime.jindo.enabled=true fluid fluid-0.5.0.tgz
  • 查看 Fluid 的运行状态
$ kubectl get pod -n fluid-system
NAME                                         READY   STATUS    RESTARTS   AGE
csi-nodeplugin-fluid-2mfcr                   2/2     Running   0          108s
csi-nodeplugin-fluid-l7lv6                   2/2     Running   0          108s
dataset-controller-5465c4bbf9-5ds5p          1/1     Running   0          108s
jindoruntime-controller-654fb74447-cldsv     1/1     Running   0          108s

其中 csi-nodeplugin-fluid-xx 的数量应该与 K8s 集群中节点 node 的数量相同。

  • 创建 dataset 和 JindoRuntime

在创建 dataset 之前,我们可以创建一个 secret 来保存 OSS 的 fs.oss.accessKeyId 和 fs.oss.accessKeySecret 信息,避免明文暴露出来,K8s 会对已创建的 secret 使用加密编码,将 key 和 secret 信息填入 mySecret.yaml 文件中。

apiVersion: v1
kind: Secret
metadata:
  name: mysecret
stringData:
  fs.oss.accessKeyId: xxx
  fs.oss.accessKeySecret: xxx

生成 secret:

kubectl create -f mySecret.yaml

创建一个 resource.yaml 文件里面包含两部分:

  1. 首先包含数据集及 ufs 的 dataset 信息,创建一个 Dataset CRD 对象,其中描述了数据集的来源。
  2. 接下来需要创建一个 JindoRuntime,相当于启动一个 JindoFS 的集群来提供缓存服务。
apiVersion: data.fluid.io/v1alpha1
kind: Dataset
metadata:
  name: hadoop
spec:
  mounts:
    - mountPoint: oss://<oss_bucket>/<bucket_dir>
      options:
        fs.oss.endpoint: <oss_endpoint>  
      name: hadoop
      encryptOptions:
        - name: fs.oss.accessKeyId
          valueFrom:
            secretKeyRef:
              name: mysecret
              key: fs.oss.accessKeyId
        - name: fs.oss.accessKeySecret
          valueFrom:
            secretKeyRef:
              name: mysecret
              key: fs.oss.accessKeySecret
---
apiVersion: data.fluid.io/v1alpha1
kind: JindoRuntime
metadata:
  name: hadoop
spec:
  replicas: 2
  tieredstore:
    levels:
      - mediumtype: HDD
        path: /mnt/disk1
        quota: 100Gi
        high: "0.99"
        low: "0.8"
  1. mountPoint:oss://<oss_bucket>/<bucket_dir> 表示挂载 UFS 的路径,路径中不需要包含 endpoint 信息。
  2. fs.oss.endpoint:oss bucket 的 endpoint 信息,公网或内网地址皆可。
  3. replicas:表示创建 JindoFS 集群的 worker 的数量。
  4. mediumtype:JindoFS 暂只支持 HDD/SSD/MEM 中的一种。
  5. path:存储路径,暂只支持一块盘,当选择 MEM 做缓存也需要一块盘来存储 log 等文件。
  6. quota:缓存最大容量,单位 Gi。
  7. high:水位上限大小 / low:水位下限大小。
kubectl create -f resource.yaml

查看 dataset 的情况:

$ kubectl get dataset hadoop
NAME     UFS TOTAL SIZE   CACHED   CACHE CAPACITY   CACHED PERCENTAGE   PHASE   AGE
hadoop        210MiB       0.00B    180.00GiB              0.0%          Bound   1h
  • 创建应用容器体验加速效果

您可以通过创建应用容器来使用 JindoFS 加速服务,或者进行提交机器学习作业来进行体验相关功能。

接下来,我们创建一个应用容器 app.yaml 来使用该数据集,我们将多次访问同一数据,并比较访问时间来展示 JindoRuntime 的加速效果。

apiVersion: v1
kind: Pod
metadata:
  name: demo-app
spec:
  containers:
    - name: demo
      image: nginx
      volumeMounts:
        - mountPath: /data
          name: hadoop
  volumes:
    - name: hadoop
      persistentVolumeClaim:
        claimName: hadoop

使用 kubectl 完成创建:

kubectl create -f app.yaml

查看文件大小:

$ kubectl exec -it demo-app -- bash
$ du -sh /data/hadoop/spark-3.0.1-bin-hadoop2.7.tgz 
210M  /data/hadoop/spark-3.0.1-bin-hadoop2.7.tgz

进行文件的 cp 观察时间消耗了 18s:

$ time cp /data/hadoop/spark-3.0.1-bin-hadoop2.7.tgz /dev/null

real  0m18.386s
user  0m0.002s
sys 0m0.105s

查看此时 dataset 的缓存情况,发现 210MB 的数据已经都缓存到了本地。

$ kubectl get dataset hadoop
NAME     UFS TOTAL SIZE   CACHED   CACHE CAPACITY   CACHED PERCENTAGE   PHASE   AGE
hadoop   210.00MiB       210.00MiB    180.00GiB        100.0%           Bound   1h

为了避免其他因素(比如 page cache)对结果造成影响,我们将删除之前的容器,新建相同的应用,尝试访问同样的文件。由于此时文件已经被 JindoFS 缓存,可以看到第二次访问所需时间远小于第一次。

kubectl delete -f app.yaml && kubectl create -f app.yaml

进行文件的拷贝观察时间,发现消耗 48ms,整个拷贝的时间缩短了 300 倍。

$ time cp /data/hadoop/spark-3.0.1-bin-hadoop2.7.tgz /dev/null

real  0m0.048s
user  0m0.001s
sys 0m0.046s
  • 环境清理删除应用和应用容器删除 JindoRuntime
kubectl delete jindoruntime hadoop
  • 删除 dataset
kubectl delete dataset hadoop

以上通过一个简单的例子完成 JindoFS on Fluid 的入门体验和理解,并最后进行环境的清理,更多 Fluid JindoRuntime 的功能使用后续文章会进行详细介绍。

  • Fluid 项目 GitHub 地址

https://github.com/fluid-cloudnative/fluid

  • Fluid 项目主页

http://pasa-bigdata.nju.edu.cn/fluid/index.html

作者简介

王涛,花名扬礼,阿里巴巴计算平台事业部 EMR 开发工程师,目前从事开源大数据存储计算方面的开发和优化工作。
车漾,花名必嘫,阿里巴巴云原生应用平台高级技术专家,从事 Kubernetes 和容器相关产品的开发。尤其关注利用云原生技术构建机器学习平台系统,是 GPU 共享调度的主要作者和维护者。

、开始使用对象存储OSS

阿里云对象存储服务(Object Storage Service,简称OSS)为您提供基于网络的数据存取服务。使用OSS,您可以通过网络随时存储和调用包括文本、图片、音频和视频等在内的各种非结构化数据文件。

阿里云OSS将数据文件以对象(object)的形式上传到存储空间(bucket)中。您可以进行以下操作:

A.创建一个或者多个存储空间,向每个存储空间中添加一个或多个文件。

B.通过获取已上传文件的地址进行文件的分享和下载。

C.通过修改存储空间或文件的属性或元信息来设置相应的访问权限。

D.在阿里云管理控制台执行基本和高级OSS任务。

E.使用阿里云开发工具包或直接在应用程序中进行RESTful API调用执行基本和高级OSS任务。

注意:初次使用阿里云OSS,请您先了解阿里云OSS使用限制。本文档向您介绍如何使用阿里云管理控制台来完成以下基本任务。



1、开通OSS服务

2、创建存储空间

3、上传文件

4、分享文件

5、删除文件

6、删除存储空间

二、开通OSS服务

前提条件

在使用阿里云OSS服务之前,请确保您已经注册了阿里云账号并完成实名认证。如果您还没有创建阿里云账号,系统会在您开通OSS时提示您注册账号。

操作步骤

1、登录阿里云官网。

2、将鼠标移至产品,单击对象存储OSS,打开OSS产品详情页面。

3、在OSS产品详情页中,单击立即开通。

4、开通服务后,在OSS产品详情页面单击管理控制台直接进入OSS管理控制台界面。您也可以单击位于官网首页右上方菜单栏的控制台,进入阿里云管理控制台首页,然后单击左侧的对象存储OSS菜单进入OSS管理控制台界面。

三、购买OSS服务

背景信息

开通OSS服务后,默认的计费方式是按量付费。如果想进一步降低OSS费用,建议使用包年包月(购买资源包)的计费方式。

资源包购买流程如下:

操作步骤

1、开通 OSS 服务后,在OSS产品详情页单击折扣套餐,进入资源包售卖页。

2、选择需要购买的资源包类型和规格。

3、选择资源包购买流程。

4、选择开通时间(支持支付后立即生效或指定时间生效)。

5、选择资源包地域。

6、不同地域单价可能不一样,如海外地区与中国大陆地区目前不一样。

7、系统显示您所选资源包配置的价格。单击立即购买。

四、创建存储空间

开通阿里云OSS服务后,您需要首先创建存储空间来存储文件。

操作步骤

1、登录OSS 管理控制台。

2、单击左侧存储空间列表中的新增按钮+,或者单击页面右上方的新建 Bucket按钮,打开新建 Bucket对话框。



3、在命名框中,输入存储空间名称。

存储空间名称必须符合命名规范。

存储空间名称在阿里云OSS的所有现有存储空间名称中必须具有唯一性。

存储空间创建后名称无法修改。

有关存储空间命名的更多信息,请参见基本概念介绍。

4、在所属地域框中,下拉选择该存储空间的数据中心。存储空间创建后无法更换所属地域。如需要通过ECS内网访问OSS,需要选择与您ECS相同的地域。

5、在存储类型框中,下拉选择所需要的存储类型。

标准存储:高可靠、高可用、高性能,数据会经常被访问到。

低频访问:数据长期存储、较少访问,存储单价低于标准类型。

归档存储:适合需要长期保存(建议半年以上)的归档数据,在存储周期内极少被访问,数据进入到可读取状态需要等待1分钟的解冻时间。适合需要长期保存的档案数据、医疗影像、科学资料、影视素材。

6、在读写权限框中,下拉选择对应的权限。

私有:只有该存储空间的拥有者可以对该存储空间内的文件进行读写操作,其他人无法访问该存储空间内的文件。

公共读:只有该存储空间的拥有者可以对该存储空间内的文件进行写操作,任何人(包括匿名访问者)可以对该存储空间中的文件进行读操作。

公共读写:任何人(包括匿名访问者)都可以对该存储空间中的文件进行读写操作。

注意对存储空间的所有操作产生的费用由该存储空间的所有者承担,因此请慎用公共读和公共读写权限。

7、单击确定。

五、上传文件

创建了存储空间之后,您可以上传任何类型的文件到存储空间中。

前提条件

已创建了存储空间。详情请参见 创建存储空间。

背景信息

您可以通过以下途径上传文件:

通过OSS控制台上传小于5GB的文件。详情请参见以下步骤。

通过SDK或API使用Multipart Upload方法上传大于5GB的文件。

通过图形化的管理工具ossbrowser上传文件。

操作步骤

1、登录OSS 管理控制台。

2、在左侧存储空间列表中,单击您要向其中上传文件的存储空间。

3、单击文件管理页签。

4、单击上传文件,打开上传文件对话框。

5、在目录地址框中,设置文件上传到OSS中的存储路径。

当前目录:将文件上传到当前目录。

指定目录:将文件上传到指定目录。您需要输入目录名称,OSS将自动创建对应的文件夹并将文件上传到该文件夹中。

6、在文件ACL区域中,选择文件的读写权限。默认为继承所在存储空间的读写权限。

7、在上传文件区域中,将要上传的一个或多个文件拖拽到此区域;或者单击直接上传,选择一个或多个要上传的文件。

8、在手机验证对话框中,单击点击获取,输入收到的校验码,然后单击确定。弹出上传任务对话框,显示上传进度。您也可以单击左侧下方的上传任务查看上传进度。

说明:如果上传的文件与存储空间中已有的文件重名,则会覆盖已有文件。

六、下载文件

您可以通过获取已上传文件的地址进行文件的分享和下载。

前提条件

文件已上传到存储空间中。详情请参见上传文件。

操作步骤

1、登录OSS 管理控制台。

2、在左侧存储空间列表中,单击您已创建的存储空间名称,打开该存储空间概览页面。

3、单击文件管理页签。

4、单击目标文件的名称或者单击目标文件对应的设置,打开该文件的预览页面,可以看到以下选项:

下载:将文件下载到本地。

打开文件 URL:直接在浏览器中打开文件。对于不支持直接浏览的文件,如 excel 文件,打开 URL 则直接下载。

复制文件 URL:获取文件 URL 给访问者进行浏览和下载。

复制文件路径:用于搜索文件或者给图片类的文件加水印等功能。

说明:您也可以通过以下方式下载文件:

下载一个或多个文件:在文件管理页面,勾选一个或多个文件,选择批量操作 > 下载。

下载单个文件:在文件管理页面,选择更多 > 下载。

5、如您的存储空间的读写权限为私有,则您获取文件访问URL时还需要在签名栏里设置链接有效时间,默认的链接有效时间为3600秒,最大值为64800秒。

说明URL签名的链接有效时间是基于NTP计算的。您可以将此链接给与任何访问者,访问者可以在有效时间内,通过此链接访问该文件。存储空间为私有权限时获得的地址是通过在URL中包含签名生成的。

七、删除文件

如果您不再需要存储所上传的文件,请将其删除以免进一步产生费用。

背景信息

您可以通过OSS控制台删除单个文件或批量删除文件。通过控制台批量删除文件个数上限为1000。如果想更灵活的选择删除的文件,或实现更大批量的删除。

警告文件删除后无法恢复,请谨慎操作。

操作步骤

1、进入OSS 管理控制台界面。

2、在左侧存储空间列表中,单击目标存储空间名称,打开该存储空间概览页面。

3、单击文件管理页签。

4、选择一个或多个文件,选择批量操作 > 删除。或者选择目标文件对应的更多 > 删除。

5、在删除文件对话框中,单击确定。

觉得不尽兴,搜索加入大牛QQ群:808026766

阿里云官方最新活动

(复制下面的链接到浏览器打开或者戳网页链接直达)

阿里云官方最新活动

一:全民云计算ECS云服务器2折起,优惠配置多选1

https://promotion.aliyun.com/ntms/act/qwbk.html?spm=5176.8112568.738194.1.f0b69ed5Jibrqu&userCode=3ek1oxkw

二:企业级高性能ECS5折起,最低只要1451元。

https://promotion.aliyun.com/ntms/act/enterprise-discount.html?spm=5176.8112568.738194.3.f0b69ed5Jibrqu&userCode=3ek1oxkw

三:1T3年OSS存储包只要99元。

https://promotion.aliyun.com/ntms/act/oss-discount.html?spm=5176.8112568.738194.1.f0b69ed5Jibrqu&userCode=3ek1oxkw

四:1000元新购,续费代金券

https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=3ek1oxkw

五: 100%CPU性能,1核2G1M服务器,每月9.5元,1年只要118元啦!

https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=3ek1oxkw

惊喜:24岁以下自动获得学生身份。