分块读取大文件可避免内存溢出,核心是使用生成器或迭代器每次读取部分数据。通过 open() 结合 iter(lambda: file.read(chunk_size), '') 或生成器函数实现,其中 chunk_size 通常设为1MB到10MB,需根据内存、文件类型和处理逻辑权衡。也可用 mmap 模块内存映射文件提升读取速度,但占用更多系统资源。处理文本文件时,为避免多字节字符截断导致解码错误,应使用 codecs.open() 指定编码,如UTF-8,确保正确处理字符边界。

将大文件分块读取,是为了避免一次性加载整个文件到内存,导致内存溢出。核心在于使用迭代器或者生成器,每次只读取文件的一部分。
使用
open()
iter(lambda: file.read(chunk_size), '')
chunk_size
def read_in_chunks(file_path, chunk_size=1024*1024): # 1MB的chunk
"""
分块读取文件内容,返回一个生成器。
"""
with open(file_path, 'r') as file_object:
while True:
chunk = file_object.read(chunk_size)
if not chunk:
break
yield chunk
# 示例使用
file_path = 'your_large_file.txt'
for chunk in read_in_chunks(file_path):
# 处理每个chunk
print(f"处理了一个chunk,大小为:{len(chunk)} 字节")chunk_size
chunk_size
chunk_size
一般来说,1MB 到 10MB 是一个不错的起点。可以通过实验找到最佳值。
立即学习“Python免费学习笔记(深入)”;
read()
mmap
import mmap
def read_with_mmap(file_path, chunk_size=1024*1024):
"""
使用 mmap 分块读取文件。
"""
with open(file_path, 'r') as f:
with mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ) as mm:
for i in range(0, len(mm), chunk_size):
chunk = mm[i:i+chunk_size]
yield chunk
# 示例使用
file_path = 'your_large_file.txt'
for chunk in read_with_mmap(file_path):
# 处理每个chunk
print(f"处理了一个 mmap chunk,大小为:{len(chunk)} 字节")mmap
如果文件是文本文件,并且使用了特定的编码,那么在分块读取时需要注意编码问题。
如果
chunk_size
codecs
import codecs
def read_in_chunks_with_encoding(file_path, chunk_size=1024, encoding='utf-8'):
"""
分块读取文件内容,并处理编码问题。
"""
with codecs.open(file_path, 'r', encoding=encoding) as file_object:
while True:
chunk = file_object.read(chunk_size)
if not chunk:
break
yield chunk
# 示例使用
file_path = 'your_large_file.txt'
for chunk in read_in_chunks_with_encoding(file_path, encoding='utf-8'):
# 处理每个chunk
print(f"处理了一个编码 chunk,大小为:{len(chunk)} 字节")codecs.open()
以上就是python中怎么将一个大文件分块读取?的详细内容,更多请关注php中文网其它相关文章!
python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号