asyncio和协程是python中处理i/o密集型任务的高效并发方案,其核心在于通过事件循环实现单线程内的合作式多任务调度。1. 协程由async def定义,通过await暂停执行并释放控制权给事件循环;2. 事件循环负责监控和调度就绪的协程,避免阻塞;3. 使用asyncio.run()启动事件循环,并通过asyncio.gather()并发运行多个任务;4. 相较于线程和进程,协程更轻量、无gil限制,适合高并发i/o场景,而线程适用于需阻塞操作或传统gui编程,进程则用于绕过gil实现cpu密集型并行计算。

Python中实现并发编程,尤其是对于I/O密集型任务,asyncio和协程无疑是当前非常主流且高效的选择。它并非真正意义上的并行处理(即同时在多个CPU核心上运行),而是通过一种巧妙的“合作式多任务”机制,让程序在等待某个操作(比如网络请求、文件读写)完成时,能够切换到其他任务上,从而充分利用等待时间,显著提升程序的响应性和吞吐量。简单来说,它让你的单线程程序看起来像是在同时处理很多事情。

要深入理解asyncio和协程,我们得从几个核心概念说起。asyncio是Python内置的异步I/O框架,而协程(coroutine)则是它实现并发的基础。
首先,协程是一种特殊的函数,用async def关键字定义。它们不像普通函数那样一旦调用就必须执行到底,而是在遇到await关键字时,可以“暂停”自身的执行,将控制权交还给事件循环(Event Loop),让事件循环去调度其他准备就绪的协程。等到await的操作完成后,这个协程又可以从暂停的地方继续执行。这就像你在厨房烧水,水没开的时候你不会傻等,而是可以去切菜、洗碗,等到水开了再回来处理。
立即学习“Python免费学习笔记(深入)”;

事件循环则是asyncio的心脏。它负责监控所有注册的任务(也就是协程),当某个任务的等待条件满足时,就把它唤醒并调度执行。整个过程都在一个线程内完成,所以没有多线程的GIL(全局解释器锁)限制,这对于I/O密集型任务来说是个巨大的优势。
使用asyncio的基本流程通常是这样的:

async def定义你的异步函数。await关键字等待另一个协程、一个Future或一个Task的完成。例如,await asyncio.sleep(1)会暂停当前协程1秒,但不会阻塞整个事件循环。asyncio.run()来启动事件循环并运行你的主协程。这是Python 3.7+推荐的入口点。举个简单的例子,感受一下:
import asyncio
import time
async def task_a():
print(f"Task A: 开始在 {time.strftime('%X')}")
await asyncio.sleep(2) # 模拟I/O操作,等待2秒
print(f"Task A: 结束在 {time.strftime('%X')}")
async def task_b():
print(f"Task B: 开始在 {time.strftime('%X')}")
await asyncio.sleep(1) # 模拟I/O操作,等待1秒
print(f"Task B: 结束在 {time.strftime('%X')}")
async def main():
print(f"主程序开始在 {time.strftime('%X')}")
# 同时运行两个任务
await asyncio.gather(task_a(), task_b())
print(f"主程序结束在 {time.strftime('%X')}")
if __name__ == "__main__":
asyncio.run(main())运行这段代码,你会发现Task A和Task B的开始和结束时间是交错的,总耗时大约是2秒(最长那个任务的时间),而不是3秒。这就是协程的魅力。asyncio.gather()则是一个非常方便的工具,用于并发地运行多个协程并等待它们全部完成。
这大概是初学者最常问的问题之一了。说实话,它们都是实现并发的手段,但底层机制和适用场景差异巨大。
首先是协程(Coroutines)。如前所述,它们是单线程内的“合作式多任务”。核心在于,协程在遇到await时会主动让出CPU,让其他协程有机会运行。这种切换是由程序自身控制的,非常轻量级,几乎没有上下文切换的开销。而且,因为它们运行在同一个线程里,所以不存在数据共享时的锁竞争问题(当然,如果你自己写出阻塞代码或者不当的共享,还是会出问题)。它们特别适合I/O密集型任务,比如网络请求、数据库查询、文件读写,这些任务大部分时间都在等待外部响应。Python的GIL对协程几乎没有影响,因为GIL只限制同一时刻只有一个线程执行Python字节码,而协程在一个线程内,只是在等待I/O时把控制权交给事件循环。
接着是线程(Threads)。Python的threading模块提供了线程支持。线程是操作系统层面的概念,由操作系统调度,属于“抢占式多任务”。这意味着操作系统可以在任何时候中断一个线程,去运行另一个线程。线程之间的切换开销比协程大。最关键的是,Python有一个“全局解释器锁”(GIL)。GIL的存在是为了保护Python解释器的内部状态,确保同一时刻只有一个线程在执行Python字节码。这意味着,即使你有多个线程,对于CPU密集型任务,它们也无法真正并行地利用多核CPU。然而,对于I/O密集型任务,当一个线程在等待I/O时,GIL会被释放,允许其他线程运行,所以在某些I/O场景下,线程也能提供并发效果。
最后是进程(Processes)。Python的multiprocessing模块允许你创建新的进程。进程是操作系统分配资源的最小单位,每个进程都有自己独立的内存空间,互不干扰。由于每个进程都有自己独立的Python解释器实例,所以它们完全绕过了GIL的限制,可以真正地并行利用多核CPU。但进程间的通信(IPC)相对复杂,而且创建和销毁进程的开销远大于线程和协程。它们是CPU密集型任务(比如大数据计算、图像处理)的首选。
我个人觉得,如果你正在构建一个高性能的网络服务、爬虫或任何需要处理大量并发I/O的系统,asyncio往往是更优雅、更高效的选择。它让你的代码逻辑更清晰,避免了多线程带来的复杂锁机制和调试难题。但如果你的任务是计算密集型的,或者需要利用多核CPU,那么multiprocessing才是你的朋友。线程嘛,在一些需要与阻塞式C扩展交互或者传统GUI编程中,可能还有一席之地,但面对新的并发需求,其地位正在被协程和进程削弱。
asyncio在实际项目中应用非常广泛,尤其是在需要高并发、低延迟的场景。
常见应用场景:
FastAPI、aiohttp、Sanic等流行的异步Web框架都构建在asyncio之上,能轻松处理成千上万的并发请求。asyncio可以同时发起大量HTTP请求,大大提高爬取效率,而不会因为等待响应而阻塞。asyncpg for PostgreSQL, aiomysql for MySQL)提供了异步接口,与asyncio配合能实现非阻塞的数据库操作。常见陷阱:
async def协程里不小心调用了同步的、会阻塞当前线程的函数(比如requests.get()、time.sleep()、同步的数据库操作),会直接阻塞整个事件循环,导致所有其他协程都停滞不前。asyncio的优势荡然无存。await: 你定义了一个async def函数,但调用它的时候忘了await。比如task_a()而不是await task_a()。这样task_a()仅仅创建了一个协程对象,但并没有把它调度到事件循环中去执行。你的任务根本不会跑起来。asyncio中,如果一个协程内部发生未捕获的异常,可能会导致整个事件循环停止,或者任务悄无声息地失败。特别是使用asyncio.gather()或asyncio.create_task()时,需要注意异常的传播和捕获。最佳实践:
asyncio原生的或支持async/await语法的第三方库。例如,用aiohttp代替requests,用asyncpg代替psycopg2。asyncio提供了loop.run_in_executor()方法来做这件事。这能确保主事件循环不会被阻塞。asyncio.create_task()和asyncio.gather(): 当你需要并发运行多个不相互依赖的协程时,使用asyncio.create_task()来创建任务并让它们在后台运行,然后你可以继续做其他事情。如果你需要等待所有任务完成并收集结果,asyncio.gather()是理想选择。await调用使用try...except块。对于asyncio.gather(),可以设置return_exceptions=True来捕获所有任务的异常,而不是让第一个异常就中断整个gather。asyncio.wait_for()或asyncio.timeout()(Python 3.11+)设置超时,避免无限期等待。当然,asyncio并非Python并发的唯一方案。Python标准库还提供了其他强大的工具,各自有其擅长的领域。
首先是threading模块。这前面也提到了,它基于操作系统线程。虽然Python的GIL限制了它在CPU密集型任务上的并行能力,但对于I/O密集型任务,它仍然是一个可行的选项。比如,你可能有一个桌面应用,需要在一个线程里运行UI,同时在另一个线程里下载文件,这样UI就不会卡死。或者,当你使用的某些第三方库是同步阻塞的,并且没有提供异步接口时,用threading来运行这些阻塞操作,可能是最简单直接的办法。它比asyncio的学习曲线可能更平缓一些,因为模型更接近传统的同步编程。
接着是multiprocessing模块。这是Python实现真正并行计算的利器。它通过创建独立的进程来绕过GIL,每个进程都有自己独立的内存空间和Python解释器。这意味着你可以充分利用多核CPU来执行CPU密集型任务,比如大规模数据分析、科学计算、图像视频处理等。但进程间通信(IPC)需要额外的机制(如队列、管道、共享内存),而且创建和管理进程的开销相对较大。如果你的任务主要是计算,并且可以分解成独立的子任务,那么multiprocessing是毋庸置疑的首选。
最后,不得不提concurrent.futures模块。这个模块提供了一个高级接口,用于异步执行可调用对象。它内部封装了ThreadPoolExecutor(基于线程)和ProcessPoolExecutor(基于进程)。它的好处是提供了一个统一的API来管理线程池和进程池,让你无需直接操作底层的线程或进程对象。你只需要提交任务,然后等待结果。这对于那些不需要复杂异步I/O逻辑,只是想简单地并发执行一组函数的场景非常方便。例如,你可能有一堆文件需要处理,用ProcessPoolExecutor可以很容易地分发给多个CPU核心并行处理。或者你有一堆URL需要请求,但又不希望引入asyncio的复杂性,ThreadPoolExecutor也能派上用场。
在我看来,选择哪种并发方案,真的要看你的具体需求和任务特性。没有银弹。一个复杂的系统,甚至可能需要混合使用这些方案:比如用asyncio处理外部网络I/O,用multiprocessing来执行后台的CPU密集型数据处理,再用threading来封装一些老旧的、阻塞的第三方库调用。理解它们的优缺点和适用场景,比盲目追逐最新技术更为重要。
以上就是Python中如何实现并发编程?asyncio协程详解的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号