
php小编新一在这里为大家介绍一种高效的方式来处理S3文件下载,以避免耗尽服务器资源。S3是亚马逊提供的一种可扩展的云存储服务,但在处理大文件下载时,传统的下载方式可能会导致服务器资源耗尽。本文将介绍一种基于PHP的解决方案,通过分块下载和流式传输的方式,有效地处理S3文件下载,提高服务器性能和用户体验。让我们一起来了解这个方法吧!
我有一个 go-gin 应用程序,它允许在 S3 中上传和下载多种文件类型。
上传到 s3 之前的所有文件均使用 AWS s3cryptoclient、AES GCM 和来自 KMS 的密钥进行加密。因此,就 s3 存储桶而言,一切都是二进制的。
我可以使用 getObject 的 SDK 命令将文件下载到服务器并解密,然后使用 io.write(tempfile) 将此文件提供给客户端进行下载。
此处的问题 S3 包含大小为 10GB 的文件,并且该服务器每天将有多个用户访问。正如我们所看到的,在具有 16GB RAM 的服务器上写入临时文件也会很快耗尽内存,同时我们还要注意运行此类服务器的成本。
瓶颈是文件在获得服务之前需要解密,在这种用例中,S3 预签名 url 就足够了,尽管解密不是由 s3 预签名 url 提供的,除非它是由客户完成的加密,在我们的案例 AWS 正在处理加密,因此该解决方案不可行。
有没有人有任何提示或可能的用例来解决这个问题,我们可以使用 go-gin/NGINX 将文件直接写入客户端。
当前用户对文件下载的处理
s3FileStream, _ := s3c.GetBucketItem(&utils.S3ObjectBucketInput{
Bucket: "bucketName",
Key: "UserFileName"
})
fileBody, err := io.ReadAll(s3FileStream.Body)
if err != nil {
panic(err.Error())
}
fileExtension := s3FileStream.Metadata["X-Amz-Meta-Type"]
err = ioutil.WriteFile("file" + *fileExtension, fileBody, 600) // temp file
if err != nil {
panic(err.Error())
}
c.JSON(http.StatusCreated, string(fileBody))
c.Done()}
一种选择是将对象作为响应正文直接写入客户端:
s3FileStream, _ := s3c.GetBucketItem(&utils.S3ObjectBucketInput{
Bucket: "bucketName",
Key: "UserFileName",
})
fileExtension := s3FileStream.Metadata["X-Amz-Meta-Type"]
c.DataFromReader(http.StatusCreated, 0, "application/data",
s3FileStream.Body,
map[string]string{"Content-Dispositon": "attachment; filename=" + "file" + *fileExtension})
c.Done()以上就是处理 S3 文件下载而不耗尽资源的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号