如何在 Python 进程之间共享数据?

How to share data between Python processes?(如何在 Python 进程之间共享数据?)
本文介绍了如何在 Python 进程之间共享数据?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

问题描述

我正在使用多处理为我的 Python 应用程序创建一个子进程.我想在我的父进程和子进程之间共享数据.需要说明的是,我需要异步共享这个,也就是说子进程和父进程会在代码运行期间更新数据.

I'm using multiprocessing to create a sub-process to my Python app. I would like to share data between my parent process and the child process. it's important to mention that I need to share this asynchronously, means that the child process and the parent process will update the data during the code running.

最好的方法是什么?

推荐答案

这是python文档中的一个简单示例 -

This is one simple example from python documentation -

from multiprocessing import Process, Queue

def f(q):
    q.put([42, None, 'hello'])

if __name__ == '__main__':
    q = Queue()
    p = Process(target=f, args=(q,))
    p.start()
    print q.get()    # prints "[42, None, 'hello']"
    p.join()

你也可以使用管道,有关详细信息,请参阅 - https://docs.python.org/2/library/multiprocessing.html

You can use pipe as well, Refer for more details - https://docs.python.org/2/library/multiprocessing.html

这篇关于如何在 Python 进程之间共享数据?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

本站部分内容来源互联网,如果有图片或者内容侵犯了您的权益,请联系我们,我们会在确认后第一时间进行删除!

相关文档推荐

build conda package from local python package(从本地 python 包构建 conda 包)
How can I see all packages that depend on a certain package with PIP?(如何使用 PIP 查看依赖于某个包的所有包?)
How to organize multiple python files into a single module without it behaving like a package?(如何将多个 python 文件组织到一个模块中而不像一个包一样?)
Check if requirements are up to date(检查要求是否是最新的)
How to upload new versions of project to PyPI with twine?(如何使用 twine 将新版本的项目上传到 PyPI?)
Why #egg=foo when pip-installing from git repo(为什么从 git repo 进行 pip 安装时 #egg=foo)