基本用法
我们知道,函数体包含 yield 关键字的函数不是一个普通函数。这种函数叫做 生成器 ( generator ),一般用于循环处理结构,应用得当可以极大优化内存使用效率。例如,设计一个函数,打开文件并将每一行转成大写并返回:
|
|
这个版本的函数,在内部创建了一个 list 对象,用于保存转换结果。for 循环则遍历文件每一行,将其转成大写并追加到列表中。这样一来,文件中的每一行均需要保存在列表中,如果文件很大,内存开销可想而知。
我们可以借助 yield 关键字,将 read_file_upper 函数改成生成器版本。函数主体逻辑没有任何变化,只是将每行数据的处理结果通过 yield 逐个返回,而不是收集到 list 对象后再返还。
|
|
如果现在有一个文本文件 data.txt ,里面包含以下内容:
hello, world
life is short, use python
my wechat id is: coding-fan
bye
用 iter_file_upper 生成器,我们可以这样对它进行处理:
|
|
iter_file_upper 生成器用法与 read_file_upper 函数大致相同,但它不会一次性拿住文件所有数据行,而是逐行处理、逐个返回,这样便将内存使用量降到最低。
行为观察
那么,生成器为什么会有这样的奇效呢?我们接着观察:
|
|
我们调用 iter_file_upper 后,得到一个生成器对象,而不是文件处理结果,这时 iter_file_upper 还未开始执行。
当我们调用 next 函数从生成器接收下一个数据时,iter_file_upper 开始执行并在 yield 处停下来,并把第一行的处理结果返回给我们:
|
|
这时,生成器处于暂停状态,没有我们的指令,它不会接着处理第二行数据。
当我们再次执行 next 函数时,生成器再次恢复执行,处理下一行数据并在 yield 处再次暂停:
|
|
生成器记住了自己的执行进度,每次调用 next 函数,它总是处理并生产下一个数据,完全不用我们瞎操心:
|
|
当 iter_file_upper 代码逻辑执行完毕,它将给 next 抛一个异常,以此通知调用者它已经结束了:
|
|
因此,我们可以简单认为 for-in 循环在 Python 虚拟机内部是这样实现的:
- 不断调用 next 函数让生成器产出数据;
- 直到生成器抛出 StopIteration 异常;
在经典的线程模型中,每个线程有一个独立的执行流,只能执行一个任务。如果一个程序需要同时处理多个任务,可以借助 多进程 或者 多线程 技术。假设一个站点需要同时服务多个客户端连接,可以为每个连接创建一个独立的线程进行处理。
不管线程还是进程,切换时都会带来巨大的开销:用户态/内核态切换、执行上下文保存和恢复、CPU缓存刷新等等。因此,用线程或进程来驱动小任务的执行,显然不是一个理想的选择。
那么,除了线程和进程,还有其他解决方案吗?点击“阅读原文”,获取更多详情!
【Python源码剖析】系列文章首发于公众号【小菜学编程】,敬请关注: