python处理文件压缩主要使用内置的zipfile模块,1. 压缩单个文件可通过zipfile对象写入模式实现;2. 压缩多个文件或目录则遍历路径逐一添加;3. 解压操作支持全部或指定文件提取;4. 查看压缩包内容可使用infolist方法;5. 处理大文件时需注意内存占用和性能优化。该模块功能全面,从基础压缩、解压到高级控制均能胜任,但大规模数据操作时应避免一次性加载过多数据进内存,并推荐使用with语句确保资源释放。

Python处理文件压缩这事儿,其实内置的zipfile模块就能搞定,非常直接高效。

要用Python来压缩文件,核心就是zipfile模块。它功能挺全面的,从单个文件到整个目录,都能给你安排得明明白白。

最基础的,比如你要把一个文件塞进压缩包:
立即学习“Python免费学习笔记(深入)”;
import zipfile
import os
def compress_single_file(file_path, output_zip_path):
# 确保文件存在,不然会报错
if not os.path.exists(file_path):
print(f"错误:文件 '{file_path}' 不存在。")
return
# 使用with语句,确保文件操作结束后资源被正确释放,这很重要
try:
with zipfile.ZipFile(output_zip_path, 'w', zipfile.ZIP_DEFLATED) as zf:
# arcname参数很重要,决定了文件在压缩包里的名字,
# 如果不指定,默认是完整路径,可能不是你想要的
zf.write(file_path, arcname=os.path.basename(file_path))
print(f"'{file_path}' 已成功压缩到 '{output_zip_path}'。")
except Exception as e:
print(f"压缩过程中出现错误:{e}")
# 示例用法:
# # 先创建一个测试文件
# with open('my_document.txt', 'w', encoding='utf-8') as f:
# f.write("这是一些测试内容,用于演示文件压缩。\n第二行内容。")
# compress_single_file('my_document.txt', 'my_archive.zip')要是想把好几个文件一起打包,或者干脆把一个文件夹里的所有东西都收进去,那也行:

import zipfile
import os
def compress_multiple_files(file_paths, output_zip_path):
try:
with zipfile.ZipFile(output_zip_path, 'w', zipfile.ZIP_DEFLATED) as zf:
for file_path in file_paths:
if os.path.exists(file_path):
zf.write(file_path, arcname=os.path.basename(file_path))
else:
print(f"警告:文件 '{file_path}' 不存在,已跳过。")
print(f"指定文件已成功压缩到 '{output_zip_path}'。")
except Exception as e:
print(f"压缩多个文件时出现错误:{e}")
def compress_directory(dir_path, output_zip_path):
if not os.path.isdir(dir_path):
print(f"错误:目录 '{dir_path}' 不存在或不是一个目录。")
return
try:
with zipfile.ZipFile(output_zip_path, 'w', zipfile.ZIP_DEFLATED) as zf:
# os.walk 是遍历目录的神器,它会递归地找出所有文件和子目录
for root, _, files in os.walk(dir_path):
for file in files:
full_path = os.path.join(root, file)
# 计算文件在zip中的相对路径,这很关键,否则会把整个绝对路径都带进去
# 比如,如果dir_path是'my_folder',full_path是'my_folder/sub/file.txt'
# 那么arcname就会是'sub/file.txt'
arcname = os.path.relpath(full_path, dir_path)
zf.write(full_path, arcname=arcname)
print(f"目录 '{dir_path}' 已成功压缩到 '{output_zip_path}'。")
except Exception as e:
print(f"压缩目录时出现错误:{e}")
# 示例用法:
# # 创建一些测试文件和目录
# os.makedirs('test_dir/subdir', exist_ok=True)
# with open('test_dir/file1.txt', 'w', encoding='utf-8') as f: f.write("内容1")
# with open('test_dir/subdir/file2.txt', 'w', encoding='utf-8') as f: f.write("内容2")
#
# compress_multiple_files(['test_dir/file1.txt'], 'my_multi_archive.zip')
# compress_directory('test_dir', 'my_dir_archive.zip')这里有个小细节,zipfile.ZIP_DEFLATED是指定压缩方式,通常用这个就够了,效果比较好。'w'是写入模式,如果文件存在就覆盖。
zipfile模块可不只是个压缩工具,它还是个解压缩的好手,甚至能让你窥探压缩包里的内容,检查完整性。这在处理别人给的压缩文件时特别有用,你总不能直接解压到一半发现文件损坏了吧?
比如,你想看看一个zip文件里都有啥:
import zipfile
import os
def list_zip_contents(zip_path):
if not os.path.exists(zip_path):
print(f"错误:文件 '{zip_path}' 不存在。")
return
if not zipfile.is_zipfile(zip_path):
print(f"错误:'{zip_path}' 不是一个有效的zip文件。")
return
print(f"'{zip_path}' 中的内容:")
try:
with zipfile.ZipFile(zip_path, 'r') as zf:
for info in zf.infolist():
# info.filename 是文件名
# info.file_size 是原始大小
# info.compress_size 是压缩后大小
print(f" 文件名: {info.filename}, 原始大小: {info.file_size} bytes, 压缩后大小: {info.compress_size} bytes")
except Exception as e:
print(f"读取zip文件内容时出现错误:{e}")
# 示例用法:
# list_zip_contents('my_archive.zip') # 假设这个文件存在解压文件就更直接了,extractall一句话搞定所有,或者extract只解压特定的:
import zipfile
import os
def extract_zip_file(zip_path, extract_to_dir):
if not os.path.exists(zip_path):
print(f"错误:文件 '{zip_path}' 不存在。")
return
if not zipfile.is_zipfile(zip_path):
print(f"错误:'{zip_path}' 不是一个有效的zip文件。")
return
os.makedirs(extract_to_dir, exist_ok=True) # 确保目标目录存在
try:
with zipfile.ZipFile(zip_path, 'r') as zf:
# 解压所有文件到指定目录
zf.extractall(extract_to_dir)
print(f"'{zip_path}' 已成功解压到 '{extract_to_dir}'。")
except Exception as e:
print(f"解压过程中出现错误:{e}")
# 示例用法:
# # 假设 'my_dir_archive.zip' 存在
# extract_zip_file('my_dir_archive.zip', 'extracted_content')有时候,你可能只想解压其中某个文件,比如zf.extract('path/to/file_in_zip.txt', path='destination_folder'),这样就灵活多了。
当你用zipfile处理特别大的文件或者整个目录,比如几个GB的数据集时,有些事儿就得留心了。性能和内存占用是两个大头。
首先是内存。zipfile在处理文件时,尤其是解压时,如果不对内存做限制,可能会一次性读取大量数据到内存,这对于内存有限的系统来说是个灾难。所以,尽量避免一次性处理所有文件,特别是当你用read()或者read(size)从ZipFile对象中读取文件内容时,最好分块读取,或者直接使用extract方法让它自己处理。
其次是效率。直接用zipfile.ZipFile(output_zip_path, 'w', zipfile.ZIP_DEFLATED)这种模式,它会先在内存里构建一些结构,然后才写入磁盘。对于超大型的归档操作,你可能需要考虑流式处理,或者更底层的文件操作来避免内存峰值。不过,对于大多数日常使用场景,zipfile已经优化得相当不错了。
还有一个小点,就是append模式。zipfile.ZipFile(path, 'a')可以往已有的zip文件里追加内容。但要注意,这个追加操作其实效率并不高,因为它可能需要重新构建zip文件的目录结构,甚至重写部分内容。所以,如果需要频繁追加,可能得考虑其他方案,或者先全部收集好再一起压缩。
最后,记得用with语句。这不只是个好习惯,更是避免资源泄漏的关键。尤其是在处理大文件时,确保文件句柄
以上就是如何用Python压缩文件?zipfile模块教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号