Python 性能快速优化
原文出处: infiniteloop.in 译文出处:yexiaobai(@葉小小小白)
Python可能最容易扼杀你的想法,但不是最好的代码实现。尽管强烈反对过早优化,但在 Python 代码中一点点的优化都可能带来巨大的性能提升。
解释仅仅是目的,最正确的方式是天天使用 Python 编程,并且与性能影响相关。
- %timeit (per line) 和 %prun (cProfile) 在 ipython 的交互式 Shell 中
当你的代码在工作时,分析你的代码,并且尝试找出性能瓶颈在哪里。这不与过早的优化是万恶之源这个事实相反。这意味着一级优化,而不是进入冗长的优化序列。
更多的分析你的 Python 代码,你需要阅读这个 python-performance-analysis
另外一个有趣的包,line_profiler是一行一行的分析代码
分析 line_profiler
- 降低方法调用次数,如果你有一个列表需要操作,传递整个列表,而不是遍历整个列表并且传递每个元素给函数并返回。
- 使用 xrange 代替range。(在 Python2.x 中这样做,因为 Python 3.x 中是默认的)
xrange是range的 C 实现,着眼于有效的内存使用。
- 对于大数据,使用 numpy,它比标准的数据结构好很多。
- "".join(string) 比+ or +=好
- while 1 比while True快
- list comphrension > for loop > while
列表推导比循环遍历列表快,但while loop是最慢的,需要使用一个外部计数器。
- 使用 cProfile,cStringIO 和 cPickle
一直使用 C 版本的模块
- 使用局部变量
局部变量比全局变量,内建类型以及属性快。
- 列表和迭代器版本存在 – 迭代器是内存效率和可伸缩性的。使用itertools
创建生成器以及尽可能使用yeild,它们比正常的列表方式更快。
下面是 Python 性能快速优化的第二部分。
- 使用 Map ,Reduce 和 Filter 代替for 循环
- 校验a in b, 字典 或 set 比 列表 或 元组 更好
- 当数据量大的时候,尽可能使用不可变数据类型,他们更快 元组 > 列表
- 在一个列表中插入数据的复杂度为 O(n)
- 如果你需要操作列表的两端,使用 deque
- del – 删除对象使用如下
1) python 自己处理它,但确保使用了gc模块
2) 编写__del__函数
3) 最简单的方式,使用后调用del - time.clock()
- GIL(http://wiki.python.org/moin/GlobalInterpreterLock) – GIL is a daemon
GIL 仅仅允许一个 Python 的原生线程来运行每个进程。阻止 CPU 级别的并行,尝试使用ctypes和 原生的 C 库来解决它,当你达到 Python 优化的最后,总是存在一个选项,可以使用原生的 C 重写慢的函数,通过 Python 的 C 绑定使用它,其他的库如gevent也是致力于解决这个问题,并且获得了成功。
TL,DR:当你写代码了,过一遍数据结构,迭代结构,内建和为 GIL 创建 C 扩展,如有必要。
更新:multiprocessing 是在 GIL 的范围之外,这意味着你可以使用multiprocessing这个标准库来运行多个进程。
看下我的 2013 的印度 PyCon 演讲