生成器函数的核心是使用yield关键字,它使函数在每次遇到yield时暂停并返回值,保持状态以便后续恢复;2. 与普通函数一次性返回所有结果不同,生成器采用惰性计算,按需生成数据,显著降低内存占用;3. 生成器对象只能迭代一次,耗尽后需重新创建;4. 常见应用场景包括处理大文件、构建数据流管道和实现无限序列;5. 性能上生成器内存效率高,但小数据集可能因上下文开销略慢于列表;6. 使用yield from可优雅地委托子生成器,提升代码简洁性和健壮性。

Python中,要写一个生成器函数来实现迭代,核心在于使用
yield
return
yield
编写一个生成器函数非常直观,你只需要在函数体内部使用
yield
for
next()
yield
yield
def simple_generator():
print("开始生成...")
yield 1
print("生成了1,继续...")
yield 2
print("生成了2,快结束了...")
yield 3
print("生成完毕!")
# 创建生成器对象
gen = simple_generator()
# 迭代生成器
print("--- 第一次迭代 ---")
for value in gen:
print(f"获取到值: {value}")
# 尝试再次迭代同一个生成器(会发现它已经耗尽)
print("\n--- 尝试第二次迭代同一个生成器 ---")
for value in gen:
print(f"再次获取到值: {value}") # 这行不会被执行,因为生成器已经空了
# 如果想再次迭代,需要重新创建一个生成器对象
print("\n--- 重新创建生成器并迭代 ---")
new_gen = simple_generator()
print(next(new_gen)) # 手动获取下一个值
print(next(new_gen))
print(next(new_gen))
try:
print(next(new_gen)) # 尝试获取第四个值,会抛出StopIteration
except StopIteration:
print("生成器已耗尽,无法再获取值。")
从上面的例子可以看出,生成器对象一旦被遍历完,就“空”了,不能再用来生成值。如果你需要再次遍历,就得重新调用生成器函数,创建一个新的生成器对象。这和列表这样的数据结构完全不同,列表可以反复遍历。
立即学习“Python免费学习笔记(深入)”;
我个人觉得,理解生成器函数和普通函数的根本区别,是掌握其精髓的关键。普通函数在执行时,通常会一次性完成所有计算,并返回一个最终结果(比如一个列表、一个字典)。如果这个结果集很大,那么在函数返回之前,所有数据都得老老实实地待在内存里。这对于处理几十万、上百万甚至更多条记录的情况,简直是内存杀手。我以前就遇到过因为一次性加载一个巨大CSV文件到内存,导致程序直接崩溃的窘境。
而生成器函数则完全不同,它采用的是“惰性计算”或者说“按需生成”的策略。当你调用生成器函数时,它并不会立即执行函数体内的所有代码,而是返回一个生成器对象。这个对象就像一个“承诺”,它承诺在你需要的时候,会给你下一个值。只有当你明确地请求(比如在
for
next()
这种机制带来的最大好处就是内存效率。你不需要一次性把所有数据都加载到内存中,这对于处理大文件、无限序列(比如斐波那契数列,你可以生成到任意大,而不用担心内存溢出)或者实时数据流(比如日志分析、网络数据包处理)来说,简直是救星。它不是为了追求纯粹的CPU执行速度,而是为了在资源受限的环境下,更优雅、更高效地处理数据。当然,由于每次
yield
next
生成器函数在实际开发中的应用场景非常广泛,尤其是在需要处理大量数据、数据流或者实现自定义迭代逻辑时。
一个非常经典的例子就是读取大型文件。想象一下,你有一个几十GB的日志文件,如果试图用
readlines()
def read_large_file(filepath):
with open(filepath, 'r', encoding='utf-8') as f:
for line in f:
yield line.strip() # 逐行返回,并去除空白字符
# 使用生成器处理文件
# 假设有一个很大的'access.log'文件
# for log_entry in read_large_file('access.log'):
# # 处理每一行日志,例如解析、过滤等
# if "ERROR" in log_entry:
# print(f"发现错误日志: {log_entry}")
# # 内存占用始终保持在较低水平这样,每次
for
另一个我经常用的场景是数据流处理管道。你可以把一系列数据处理步骤串联起来,每一步都是一个生成器,前一个生成器的输出是后一个生成器的输入。例如,从文件读取数据,然后过滤,再转换:
def get_numbers(filepath):
with open(filepath, 'r') as f:
for line in f:
try:
yield int(line.strip())
except ValueError:
continue # 忽略非数字行
def filter_even(numbers_gen):
for num in numbers_gen:
if num % 2 == 0:
yield num
def square_numbers(even_numbers_gen):
for num in even_numbers_gen:
yield num * num
# 假设'data.txt'包含多行数字和一些文本
# 例如:
# 1
# 2
# hello
# 3
# 4
# 5
# data.txt 内容:
# 1
# 2
# hello
# 3
# 4
# 5
# 运行管道
# for squared_even in square_numbers(filter_even(get_numbers('data.txt'))):
# print(squared_even)
# 输出:
# 4
# 16这种链式调用,每个环节都是惰性求值,数据在管道中流动,不会在任何一个中间步骤积累大量内存。
此外,自定义迭代器也是一个重要应用。当你需要实现一个自定义的复杂数据结构或者算法,并希望它能够像内置的列表、元组一样被
for
__iter__
def fibonacci_sequence():
a, b = 0, 1
while True: # 无限序列
yield a
a, b = b, a + b
# for i, num in enumerate(fibonacci_sequence()):
# if i > 10:
# break
# print(num)
# 输出:
# 0
# 1
# 1
# 2
# 3
# 5
# 8
# 13
# 21
# 34
# 55你甚至可以利用生成器实现一些简单的协程行为,虽然现在有了
async/await
send()
throw()
close()
编写生成器函数时,有一些细节确实需要留意,否则可能会遇到一些意想不到的行为。
一个最常见的“陷阱”就是生成器只能被迭代一次。这跟列表、元组这种数据结构不一样。当你把一个生成器对象传给一个函数,那个函数遍历了一遍,那么这个生成器就“用完了”。如果你想再次遍历,或者把它传给另一个函数,那个函数会发现它已经空了。我第一次遇到这个问题时,还以为是代码哪里写错了,后来才明白这是生成器的设计特性。
def my_numbers():
yield 1
yield 2
yield 3
gen_obj = my_numbers()
list_one = list(gen_obj) # 第一次迭代,gen_obj被耗尽
print(f"第一次转换成列表: {list_one}") # 输出: [1, 2, 3]
list_two = list(gen_obj) # 第二次尝试转换,gen_obj已经空了
print(f"第二次转换成列表: {list_two}") # 输出: []
# 解决办法:每次需要迭代时,重新调用生成器函数创建新的生成器对象
gen_obj_new = my_numbers()
list_three = list(gen_obj_new)
print(f"重新创建后转换成列表: {list_three}") # 输出: [1, 2, 3]所以,如果你在一个地方使用了生成器,并且知道后面可能还需要它,要记得重新创建它,或者一开始就考虑是否真的需要一个生成器,还是一个列表更合适。
在性能考量方面,虽然生成器在内存效率上表现出色,但它并非总是比列表推导式或一次性构建列表更快。每次
yield
next()
import time
def generate_small_list():
return [i for i in range(1000)]
def generate_small_generator():
for i in range(1000):
yield i
start = time.perf_counter()
_ = generate_small_list()
end = time.perf_counter()
print(f"列表推导式耗时: {(end - start) * 1000:.2f} ms")
start = time.perf_counter()
_ = list(generate_small_generator()) # 强制迭代生成器
end = time.perf_counter()
print(f"生成器耗时: {(end - start) * 1000:.2f} ms")你会发现,对于小规模数据,列表推导式可能更快。但请记住,生成器的核心优势是内存,而不是绝对速度。当数据量变得庞大时,内存优势会迅速抵消掉这点微小的速度劣势,并成为决定性的因素。
另一个需要注意的,是当你在生成器内部调用另一个生成器时,可以使用
yield from
next()
def sub_generator():
yield 'a'
yield 'b'
def main_generator_manual():
yield 1
for item in sub_generator(): # 手动迭代子生成器
yield item
yield 2
def main_generator_yield_from():
yield 1
yield from sub_generator() # 使用yield from委托
yield 2
print(list(main_generator_manual())) # 输出: [1, 'a', 'b', 2]
print(list(main_generator_yield_from())) # 输出: [1, 'a', 'b', 2]yield from
以上就是Python函数怎样写一个生成器函数实现迭代 Python函数生成器创建与使用的简单教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号