
本文旨在解决aws ec2实例间远程文件列表显示与访问的问题。当直接通过http路径访问远程文件不可行时,推荐采用aws s3作为中央共享存储。通过在两个ec2实例上安装并配置s3fs,可以将s3存储桶挂载为本地文件系统,从而实现对远程文件的无缝访问和管理,提高分布式应用的文件处理能力。
在AWS云环境中,当应用程序部署在多个EC2实例上时,经常会遇到需要在一个实例(例如管理界面)上访问另一个实例(例如文件存储服务器)中特定目录下的文件列表的需求。传统的做法,如PHP的scandir()函数,通常只能访问本地文件系统中的目录。直接尝试通过HTTP路径(如http://xx.xxx.xxx.xx/upload_directory/)来访问远程目录并期望获取文件列表,是无法成功的,因为HTTP协议是用于传输网页内容的,而非提供文件系统级别的目录扫描功能。这种情况下,需要一种机制,能够让远程存储的文件在本地实例上表现得如同本地文件一样。
解决此问题的有效方法是利用AWS S3作为中间共享存储,并使用S3FS工具将S3存储桶挂载到每个EC2实例的本地文件系统上。S3FS是一个FUSE(Filesystem in Userspace)文件系统,它允许Linux系统将S3存储桶作为标准的本地文件系统进行挂载,从而可以使用常规的文件系统操作(如ls、cp、scandir等)来访问S3中的对象。
S3FS通过FUSE接口将S3存储桶的内容映射到本地目录。这意味着,一旦S3桶被成功挂载,存储在S3中的文件和目录就会在挂载点处显示,应用程序可以像访问本地文件一样访问它们。对挂载点执行的任何文件操作(读、写、删除)都会被S3FS转换为相应的S3 API调用。
在开始安装和配置S3FS之前,请确保完成以下准备工作:
S3FS的安装过程通常涉及从源代码编译或使用包管理器。对于Ubuntu EC2实例,可以参考S3FS-FUSE的官方GitHub仓库(https://github.com/s3fs-fuse/s3fs-fuse)获取最新的安装指南。通常步骤如下:
# 更新系统包列表 sudo apt update # 安装必要的依赖 sudo apt install automake autotools-dev fuse g++ git libcurl4-gnutls-dev libfuse-dev libssl-dev libxml2-dev make pkg-config # 克隆s3fs-fuse仓库 git clone https://github.com/s3fs-fuse/s3fs-fuse.git # 进入目录并编译安装 cd s3fs-fuse ./autogen.sh ./configure make sudo make install
安装完成后,需要在两个EC2实例上配置并挂载S3存储桶。
创建挂载点: 在每个EC2实例上,创建一个用于挂载S3桶的本地目录。例如:
sudo mkdir -p /mnt/s3fs/pathlocal
挂载S3存储桶:
使用AWS访问密钥挂载: 如果您选择使用AWS访问密钥,需要将密钥存储在一个文件中(例如~/.passwd-s3fs),并设置适当的权限:
echo "YOUR_ACCESS_KEY_ID:YOUR_SECRET_ACCESS_KEY" > ~/.passwd-s3fs chmod 600 ~/.passwd-s3fs
然后执行挂载命令:
/usr/local/bin/s3fs -o allow_other -o passwd_file=~/.passwd-s3fs bucket-name /mnt/s3fs/pathlocal
请将bucket-name替换为您的S3存储桶名称。
使用IAM角色挂载 (推荐): 如果EC2实例已附加了具有S3读写权限的IAM角色,则挂载命令会更简洁且更安全:
/usr/local/bin/s3fs -o allow_other -o iam_role='your-iam-role-name' bucket-name /mnt/s3fs/pathlocal
请将bucket-name替换为您的S3存储桶名称,your-iam-role-name替换为附加到EC2实例的IAM角色名称。 -o allow_other选项允许非root用户访问挂载点。
为了确保EC2实例重启后S3存储桶能自动挂载,可以将挂载命令添加到启动脚本中。
使用/etc/rc.local (适用于较旧的Ubuntu版本或特定场景): 编辑/etc/rc.local文件,在exit 0之前添加挂载命令。
sudo nano /etc/rc.local
添加以下行(根据您的挂载方式选择):
# For AWS keys /usr/local/bin/s3fs -o allow_other -o passwd_file=/home/ubuntu/.passwd-s3fs bucket-name /mnt/s3fs/pathlocal & # Or for IAM role /usr/local/bin/s3fs -o allow_other -o iam_role='your-iam-role-name' bucket-name /mnt/s3fs/pathlocal & exit 0
请确保脚本具有执行权限:sudo chmod +x /etc/rc.local。
使用/etc/fstab (推荐): 更现代和推荐的方法是编辑/etc/fstab文件,这允许系统在启动时自动挂载文件系统。
sudo nano /etc/fstab
添加以下行(根据您的挂载方式选择):
# For AWS keys bucket-name /mnt/s3fs/pathlocal fuse.s3fs _netdev,allow_other,passwd_file=/home/ubuntu/.passwd-s3fs 0 0 # Or for IAM role bucket-name /mnt/s3fs/pathlocal fuse.s3fs _netdev,allow_other,iam_role='your-iam-role-name' 0 0
_netdev选项确保在网络可用后才尝试挂载。
一旦S3存储桶成功挂载,您的PHP脚本就可以像访问本地目录一样访问S3中的文件。例如,原始的PHP脚本现在可以指向挂载点:
<?php
$path = "/mnt/s3fs/pathlocal/"; // 指向S3FS的挂载点
$files = scandir($path);
$nothidden = [];
foreach($files as $file) {
if ($file[0] != '.') { // 过滤隐藏文件
$nothidden[] = $file;
}
}
// 示例:打印文件列表
foreach($nothidden as $file) {
echo $file . "<br>";
}
?>这样,无论文件实际存储在哪个EC2实例上,只要它位于共享的S3存储桶中,并通过S3FS挂载,两个EC2实例上的应用程序都可以透明地访问它。
通过在AWS EC2实例上安装和配置S3FS,并将AWS S3存储桶挂载为本地文件系统,可以有效地解决分布式EC2应用中远程文件访问和共享的问题。这种方法不仅提供了一种灵活、可扩展的文件共享机制,而且通过利用AWS IAM角色,还能确保操作的安全性。对于需要在多个EC2实例间共享文件列表或进行文件操作的场景,S3FS是一个强大且实用的解决方案。
以上就是利用S3FS在AWS EC2实例间实现文件共享与访问的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号