前言
与多线程不同,多进程之间不会共享全局变量,所以多进程通信需要借助“外力”。在Python中,这些常用的外力有Queue,Pipe,Value/Array和Manager。
Queue
这里的Queue不是queue模块中的Queue——它在多进程中无法起到通信作用,我们需要multiprocessing模块下的。同时,由于Python的完美封装,它的实现原理可以说是对程序员完全透明,使用者把它当作寻常队列使用即可。就像下面这个生产者/消费者的demo一样,二者通过queue互通往来。
import random
import multiprocessing
def producer(queue): # 生产者生产数据
for __ in range(10):
queue.put(random.randrange(100))
def consumer(queue): # 消费者处理数据
while True:
if not queue.empty():
item = queue.get() # 模拟消费者的处理过程
print("处理一个元素:{}".format(item))
if __name__ == "__main__":
queue = multiprocessing.Queue()
proProcess = multiprocessing.Process(target=producer, args=(queue,))
conProcess = multiprocessing.Process(target=consumer, args=(queue,))
proProcess.start()
conProcess.start()
proProcess.join()
while not queue.empty(): # 当队列不为空时,继续等待消费者处理
pass
conProcess.terminate() # 终止消费者进程
print("处理结束")
# 输出:
处理一个元素:14
处理一个元素:90
处理一个元素:72
处理一个元素:84
处理一个元素:21
处理一个元素:43
处理一个元素:52
处理一个元素:79
处理一个元素:95
处理一个元素:73
处理结束
Pipe
Queue适用于绝大多数场景,为满足普遍性而不得不多方考虑,它因此显得“重”。Pipe更为轻巧,速度更快。它的使用如同Socket编程里的套接字,通过recv()
和send()
实现通信机制。使用方法:
import multiprocessing
sender, reciver = multiprocessing.Pipe()
其实查看Pipe的源码会发现,Pipe()
方法返回两个Connection()实例,也就是说返回的两个对象完全一样(但id不一样),只不过我们用不同的变量名做了区分。
# Pipe源码
def Pipe(duplex=True):
return Connection(), Connection()
send()
方法可以不停发送数据,可以看作是它把数据送到一个容器中,而recv()
方法就是从这个容器里取数据,当容器中没有数据后,recv()
会阻塞当前进程。需要注意的是:recv不能取同一个对象send出去的数据。
import multiprocessing
if __name__ == "__main__":
sender, reciver = multiprocessing.Pipe()
sender.send("zty") # sender发数据
data = reciver.recv() # reciver取数据
print(data) # 输出:zty
sender.send("zty") # sender发数据
data = sender.recv() # sender取数据,但程序被阻塞,因为recv不能取同一个对象send出去的数据
print(data)
将Queue中的demo用Pipe修改,代码成了下边这样:
import time
import random
import multiprocessing
def producer(pro): # 生产者生产数据
for __ in range(10):
pro.send(random.randrange(100))
def consumer(con): # 消费者处理数据
while True:
data = con.recv()
print("处理一个元素:{}".format(data))
if __name__ == "__main__":
pro, con = multiprocessing.Pipe()
proProcess = multiprocessing.Process(target=producer, args=(pro,))
conProcess = multiprocessing.Process(target=consumer, args=(con,))
proProcess.start()
conProcess.start()
proProcess.join()
time.sleep(2) # 确保数据处理完后终止消费者
conProcess.terminate() # 由于recv会阻塞进程,所以手动终止
print("处理结束")
Value/Array
multiprocessing.Value和multiprocessing.Array的实现基于内存共享,这里简单的介绍如何使用。
# 抽象出的Value和Array源码
def Value(typecode_or_type, *args, **kwargs):
pass
def Array(typecode_or_type, size_or_initializer, lock=True):
pass
无论是Value()
还是Array()
,第一个参数都是typecode_or_type。type_code表示类型码,在Python中已经预先设计好了,如”c“表示char类型,“i”表示singed int类型,“f”表示float类型,等等(更多可见这篇Python:线程、进程与协程(5)——multiprocessing模块(2))。但我觉得这种方式不易记忆,更偏爱用type表达类型。这里需要借助ctypes模块。
ctypes.c_char ==> 字符型
ctypes.c_int ==> 整数型
ctypes.c_float ==> 浮点型
两种使用方式的比较:
# typecode
nt_typecode = Value("i", 512)
float_typecode = Value("f", 1024.0)
char_typecode = Value("c", b"a") # 第二个参数是byte型
# type
import ctypes
int_type = Value(ctypes.c_int, 512)
float_type = Value(ctypes.c_float, 1024.0)
char_type = Value(ctypes.c_char, b"a") # 第二个参数是byte型
这里几点需要注意:
- 对于Value的对象来说,需要通过
.value
获取属性值; - Array中的第一个参数表示:该数组中存放的元素的类型;
- 如果需要字符串,通过Array实现,而不是Value。
Array()
第二个参数是size_or_initializer,表示传入参数可以是数组的长度,或者初始化值。这里的Array是地地道道的数组,而非Python中的列表,有过C语言经验的人应该可以立马明白。
使用方式如下:
from multiprocessing import Process, Value, Array
def producer(num, string):
num.value = 1024
string[0] = b"z" # 只能一个一个的赋值
string[1] = b"t"
string[2] = b"y"
def consumer(num, string):
print(num.value)
print(b"".join(string))
if __name__ == "__main__":
import ctypes
num = Value(ctypes.c_int, 512)
string = Array(ctypes.c_char, 3) # 设置一个长度为3的数组
proProcess = Process(target=producer, args=(num, string))
conProcess = Process(target=consumer, args=(num, string))
...
# 输出:
1024
b'zty'
Manager
Manager是通过共享进程的方式共享数据,它支持的数据类型比Value和Array更丰富。单拿Manager中的Value来说,它就直接支持字符串:
def producer(num, string):
num.value = 1024
string.value = "zty" # 支持字符串赋值
def consumer(num, string):
print(num.value)
print(string.value)
if __name__ == "__main__":
import ctypes
num = Manager().Value(ctypes.c_int, 512)
string = Manager().Value(ctypes.c_char, "")
proProcess = Process(target=producer, args=(num, string))
conProcess = Process(target=consumer, args=(num, string))
...
# 输出:
1024
zty
但Manager中的Array似乎有被削弱的感觉。
首先,它的第一个参数不再支持type方式。如果你强制使用,会得到这样的报错:TypeError: array() argument 1 must be a unicode character, not _ctypes.PyCSimpleType
其次,它允许的类型也变少了。传入的typecode必须在b, B, u, h, H, i, I, l, L, q, Q, f or d之中——很明显,它不支持char类型了。
总的来说,Manager已经足够强大,它还支持Lock,RLock等操作,这些操作与线程中的一般无二,这是因为它们是借助threading模块实现的。
dict_ = Manager().dict() # 字典对象
queue = Manager().Queue() # 队列
lock = Manager().Lock() # 普通锁
rlock = Manager().RLock() # 可冲入锁
cond = Manager().Condition() # 条件锁
semaphore = Manager().Semaphore() # 信号锁
event = Manager().Event() # 事件锁
namespace = Manager().Namespace() # 命名空间
需要重点介绍的是Manager().Namespace()
。它会开辟一个空间,在这个命名空间中,可以更“随性”使用Python中的数据类型,访问这个空间只需要对象名.xxx
即可。像下面这样:
from multiprocessing import Process, Manager
def producer(namespace): # 生产者生产数据
namespace.name = "zty"
namespace.info = {"Id": 12345, "Addr": "chengdu"}
namespace.age = 19
def consumer(namespace):
import time
time.sleep(1)
print(namespace.name)
print(namespace.info)
print(namespace.age)
if __name__ == "__main__":
namespace = Manager().Namespace()
proProcess = Process(target=producer, args=(namespace,))
conProcess = Process(target=consumer, args=(namespace,))
...
# 输出:
zty
{'Id': 12345, 'Addr': 'chengdu'}
19
不过它有一个缺点:无法直接修改可变类型的数据。拿list举例,即便是在一个子进程中修改了命名空间中列表的值,然而在另一个子进程中获取这个列表,得到的依然是未修改之前的数据。
def producer(namespace):
namespace.nums[2] = 3 # nums = [5, 1, 3]
def consumer(namespace):
time.sleep(1)
print(namespace.nums) # 输出:[5, 1, 2]
if __name__ == "__main__":
namespace = Manager().Namespace()
namespace.nums = [5, 1, 2]
namespace.alphas = ["z", "t", "y"]
proProcess = Process(target=producer, args=(namespace,))
conProcess = Process(target=consumer, args=(namespace,))
...
解决方法,更新列表引用(重新赋值):
def producer(namespace): # 生产者生产数据
nums = namespace.nums
nums[2] = 3
namespace.nums = nums
def consumer(namespace):
time.sleep(1)
print(namespace.nums) # 输出:513
详情请见:How does multiprocessing.Manager() work in python?
还不快抢沙发