分布式职责队列Celery入门与进阶,Django使用Celery异步任务队列

一、简介

  Celery是由Python开发、不难、灵活、可靠的分布式职分队列,其本质是生产者消费者模型,生产者发送职务到音信队列,消费者负责处理职分。Celery侧重于实时操作,但对调度援助也很好,其每一天能够处理数以百万计的天职。特点:

  • 简单易行:熟知celery的干活流程后,配置使用简单
  • 高可用:当义务执行破产或施行进程中发出延续中断,celery会自动尝试重新履行任务
  • 快快:三个单进度的celery每分钟可处理上百万个任务
  • 利落:差不多celery的顺序零部件都能够被扩展及自定制

运用场景举例:

  壹.web行使:当用户在网址开始展览某些操作须求十分短日子成功时,大家能够将那种操作交给Celery执行,直接回到给用户,等到Celery执行到位今后文告用户,大大提好网站的产出以及用户的体验感。

  二.任务场景:比如在运营场景下需求批量在几百台机械执行某个命令或然职分,此时Celery能够轻松化解。

  3.定时任务:向定时导数据报表、定时发送文告类似场景,即使Linux的安顿职务能够帮自个儿达成,但是那么些不便宜管理,而Celery能够提供管理接口和增进的API。

1 Celery简介

Celery是异步职责队列,能够单独于主进度运维,在主进度退出后,也不影响队列中的职分执行。

职务执行非常退出,重新开动后,会继续执行队列中的其余任务,同时能够缓存结束时期收受的干活任务,那几个效果依赖于音信队列(MQ、Redis)。

Django使用Celery异步职分队列,djangocelery

1  Celery简介

Celery是异步义务队列,能够独自于主进度运维,在主进度退出后,也不影响队列中的职责执行。

职责执行格外退出,重新开动后,会继续执行队列中的别的职分,同时能够缓存停止时期收到的做事义务,那几个效应依赖于音信队列(MQ、Redis)。

 

二、架构&工作原理

  Celery由以下三有个别构成:消息中间件(Broker)、任务执行单元Worker、结果存款和储蓄(Backend),如下图:

  美高梅开户网址 1

工作规律:

  1. 职责模块Task包含异步职分和定时职分。个中,异步职分日常在业务逻辑中被触发并发往音讯队列,而定时职责由Celery
    Beat进度周期性地将职分发往音讯队列;
  2. 任务执行单元Worker实时监视音信队列获取队列中的职务履行;
  3. Woker执行完任务后将结果保存在Backend中;

1.1 Celery原理

美高梅开户网址 2

Celery的 架构 由三局地构成,新闻中间件(message
broker),职务执行单元(worker)和天职执行结果存款和储蓄(task result
store)组成。

新闻中间件:Celery本身不提供音讯服务,可是能够方便的和第一方提供的音讯中间件集成。包涵,
RabbitMQRedis ,  MongoDB  (experimental), 亚马逊(Amazon) SQS
(experimental),CouchDB (experimental), SQLAlchemy (experimental),Django
O奥迪Q伍M (experimental), IronMQ。推荐使用:RabbitMQ、Redis作为新闻队列。

义务执行单元:Worker是Celery提供的天职履行的单元,worker并发的运营在分布式的连串节点中。

职分结果存储:Task result
store用来储存Worker执行的天职的结果,Celery帮助以差别格局存款和储蓄职务的结果,包涵AMQP,
Redis,memcached, MongoDB,SQLAlchemy, Django O陆风X8M,Apache Cassandra,
IronCache

1  Celery简介

Celery是异步职务队列,能够单独于主进程运营,在主进程退出后,也不影响队列中的职分执行。

职分执行至极退出,重新起动后,会继续执行队列中的别的职务,同时能够缓存甘休时期接收的工作职分,那么些成效看重于音讯队列(MQ、Redis)。

 

1.1  Celery原理

 美高梅开户网址 3

 

Celery的架构由三片段组成,新闻中间件(message
broker),任务履行单元(worker)和职分履行结果存款和储蓄(task result
store)组成。

  • 音信中间件:Celery本人不提供消息服务,然而足以1本万利的和第2方提供的音信中间件集成。包涵,RabbitMQRedis, MongoDB (experimental),
    亚马逊(Amazon) SQS (experimental),CouchDB (experimental), SQLAlchemy
    (experimental),Django O途乐M (experimental),
    IronMQ。推荐使用:RabbitMQ、Redis作为音讯队列。
  • 职务履行单元:Worker是Celery提供的职责履行的单元,worker并发的运转在分布式的种类节点中。
  • 任务结果存储:Task result
    store用来存储Worker执行的任务的结果,Celery辅助以区别方法存款和储蓄职责的结果,包蕴AMQP,
    Redis,memcached, MongoDB,SQLAlchemy, Django O途睿欧M,Apache Cassandra,
    IronCache

音信中间件Broker

  信息中间件Broker官方提供了不少准备方案,协理RabbitMQ、Redis、AmazonSQS、MongoDB、Memcached 等,官方推荐RabbitMQ。

1.2Celery适用场景

异步任务处理:例如给登记用户发送短音讯可能确认邮件职分。
大型任务:执行时间较长的职分,例如录像和图片处理,添加水印和转码等,须求实践任务时间长。
定时举行的天职:帮助职分的定时执行和设定时间实施。例如品质压测定时进行。

1.1  Celery原理

 美高梅开户网址 4

 

Celery的架构由叁有个别构成,新闻中间件(message
broker),职务执行单元(worker)和任务执行结果存款和储蓄(task result
store)组成。

  • 新闻中间件:Celery本人不提供音讯服务,不过能够便宜的和第二方提供的音信中间件集成。包含,RabbitMQRedis, MongoDB (experimental),
    亚马逊 SQS (experimental),CouchDB (experimental), SQLAlchemy
    (experimental),Django O哈弗M (experimental),
    IronMQ。推荐应用:RabbitMQ、Redis作为音讯队列。
  • 职分执行单元:Worker是Celery提供的职责履行的单元,worker并发的运行在分布式的类别节点中。
  • 职分结果存款和储蓄:Task result
    store用来囤积Worker执行的天职的结果,Celery扶助以分裂格局存款和储蓄任务的结果,包罗AMQP,
    Redis,memcached, MongoDB,SQLAlchemy, Django OCR-VM,Apache Cassandra,
    IronCache

壹.二     Celery适用场景

  • 异步任务处理:例如给登记用户发送短新闻大概确认邮件职务。
  • 大型职分:执行时间较长的天职,例如录像和图表处理,添加水印和转码等,须求履行职责时间长。
  • 定时执行的任务:协理任务的定时执行和设定时间实施。例如质量压测定时实施。

 

职务执行单元Worker

  Worker是天职执行单元,负责从音信队列中取出任务履行,它能够运转多少个大概多少个,也能够运维在分裂的机器节点,那便是其促成分布式的为主。

 2Celery开发条件准备

一.二     Celery适用场景

  • 异步职分处理:例如给登记用户发送短音信恐怕确认邮件任务。
  • 特大型任务:执行时间较长的天职,例如摄像和图纸处理,添加水印和转码等,须要执行职分时间长。
  • 定时执行的职责:辅助职务的定时执行和设定时间实施。例如质量压测定时进行。

 

二      Celery开发环境准备

结果存款和储蓄Backend

  Backend结果存储官方也提供了成都百货上千的存储方式帮忙:RabbitMQ、 Redis、Memcached,SQLAlchemy,
Django O昂科拉M、Apache Cassandra、Elasticsearch。

 二.一 环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

2      Celery开发条件准备

二.一     环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

 

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

 

叁、安装使用 

  那边笔者动用的redis作为新闻中间件,redis安装能够参见

Celery安装: 

pip3 install celery

2.2     Celery安装

使用格局介绍:

Celery的运作重视音信队列,使用时索要设置redis或然rabbit。

此处大家应用Redis。安装redis库:

sudo yum install redis

启动redis:

sudo service redis start

安装celery库

sudo pip install celery==4.0.2

2.壹     环境准备

软件名称

版本号

说明

Linux

Centos 6.5(64bit)

操作系统

Python

3.5.2

 

Django

1.10

Web框架

Celery

4.0.2

异步任务队列

Redis

2.4

消息队列

 

2.2     Celery安装

应用格局介绍:

Celery的周转重视音讯队列,使用时必要安装redis或然rabbit。

此间大家选择Redis。安装redis库:

sudo yum install redis

  

启动redis:

sudo service redis start

 

安装celery库

sudo pip install celery==4.0.2

 

简短利用

  目录结构:

project/
├── __init__.py  
├── config.py
└── tasks.py

各目录文件注明:

__init__.py:初始化Celery以及加载配置文件

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from celery import Celery
app = Celery('project')                                # 创建 Celery 实例
app.config_from_object('project.config')               # 加载配置模块

config.py: 
Celery相关配置文件,更加多布署参考:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
)

tasks.py :任务定义文件

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
@app.task
def show_name(name):
    return name

启动Worker:

celery worker -A project -l debug

次第参数含义:

  worker: 代表第运行的剧中人物是work当然还有beat等别的剧中人物;

  -A :项目路线,那里小编的目录是project

  -l:运营的日志级别,更加多参数使用celery –help查看

查看日志输出,会意识我们定义的义务,以及有关安插:

美高梅开户网址 5

 

  尽管起步了worker,可是大家还供给通过delay或apply_async来将任务添加到worker中,那里大家透过交互式方法添加职分,并赶回AsyncResult对象,通过AsyncResult对象得到结果:

美高梅开户网址 6

AsyncResult除了get方法用于常用获取结果方法外还提以下常用艺术或质量:

  • state: 重返职务意况;
  • task_id: 重回职务id;
  • result: 再次来到职责结果,同get()方法;
  • ready(): 判断任务是或不是以及有结果,有结果为True,不然False;
  • info(): 获取职责音讯,暗中认可为结果;
  • wait(t):
    等待t秒后获取结果,若义务执行完结,则不等待间接获取结果,若职分在实施中,则wait时期一贯不通,直到超时报错;
  • successfu(): 判断职务是还是不是中标,成功为True,不然为False;

3Celery单独进行职责

2.2     Celery安装

选拔办法介绍:

Celery的运作信赖消息队列,使用时须要安装redis也许rabbit。

此间大家应用Redis。安装redis库:

sudo yum install redis

  

启动redis:

sudo service redis start

 

安装celery库

sudo pip install celery==4.0.2

 

叁      Celery单独执行职责

肆、进阶使用

  对于普通的职分的话恐怕满足不断我们的天职急需,所以还亟需驾驭部分进阶用法,Celery提供了过多调度格局,例如任务编排、依照职务情形执行不一致的操作、重试机制等,以下会对常用高阶用法实行描述。

 叁.一编写任务

创建task.py文件

表明:那里开首Celery实例时就加载了配备,使用的redis作为消息队列和仓库储存任务结果。

美高梅开户网址 7

运行celery:

$ celery -A task worker --loglevel=info

看到下边包车型客车打字与印刷,表明celery成功运转。

美高梅开户网址 8

3      Celery单独执行职责

三.一     编写职务

创建task.py文件

表达:那里初叶Celery实例时就加载了布署,使用的redis作为新闻队列和仓库储存任务结果。

 美高梅开户网址 9

 

运行celery:

$ celery -A task worker --loglevel=info

看到下边包车型大巴打印,说明celery成功运营。

 美高梅开户网址 10

定时职责&布署职分

  Celery的提供的定时职务至关心注重要靠schedules来成功,通过beat组件周期性将职务发送给woker执行。在示范中,新建文件period_task.py,并累加职分到安顿文件中:

period_task.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.schedules import crontab

@app.on_after_configure.connect
def setup_periodic_tasks(sender, **kwargs):
    sender.add_periodic_task(10.0, add.s(1,3), name='1+3=') # 每10秒执行add
    sender.add_periodic_task(
        crontab(hour=16, minute=56, day_of_week=1),      #每周一下午四点五十六执行sayhai
        sayhi.s('wd'),name='say_hi'
    )



@app.task
def add(x,y):
    print(x+y)
    return x+y


@app.task
def sayhi(name):
    return 'hello %s' % name

config.py

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task', #定时任务
)

启动worker和beat:

celery worker -A project -l debug #启动work
celery beat -A  project.period_task -l  debug #启动beat,注意此时对应的文件路径

大家得以考查worker日志:

美高梅开户网址 11

还足以由此配备文件措施内定定时和铺排职责,此时的布署文件如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
from celery.schedules import crontab

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task',
)

app.conf.beat_schedule = {
    'period_add_task': {    # 计划任务
        'task': 'project.period_task.add',  #任务路径
        'schedule': crontab(hour=18, minute=16, day_of_week=1),
        'args': (3, 4),
    },
'add-every-30-seconds': {          # 每10秒执行
        'task': 'project.period_task.sayhi',  #任务路径
        'schedule': 10.0,
        'args': ('wd',)
    },
}

此时的period_task.py只必要注册到woker中就行了,如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app

@app.task
def add(x,y):
    print(x+y)
    return x+y


@app.task
def sayhi(name):
    return 'hello %s' % name

平等运营worker和beat结果和第2种情势一样。越来越多详细的内容请参见:

三.贰 调用任务

平素打开python交互命令行

实践上边代码:

美高梅开户网址 12

可以celery的窗口看到职分的推行音信

美高梅开户网址 13

任务履汇兑况监察和控制和获取结果:

美高梅开户网址 14

叁.壹     编写职责

创建task.py文件

分布式职责队列Celery入门与进阶,Django使用Celery异步任务队列。注解:这里开端Celery实例时就加载了配备,使用的redis作为信息队列和存储职务结果。

 美高梅开户网址 15

 

运行celery:

$ celery -A task worker --loglevel=info

总的来看上面包车型大巴打字与印刷,表明celery成功运行。

 美高梅开户网址 16

3.二     调用职责

 直接打开python交互命令行

 执行上边代码:

美高梅开户网址 17

 

能够celery的窗口看到职责的实行消息

 美高梅开户网址 18

 

职分执市价况监察和控制和获取结果:

 美高梅开户网址 19

 

 

职分绑定

  Celery可通过职务绑定到实例获取到职责的上下文,那样大家得以在使时局营时候获得到职分的动静,记录相关日志等。

修改职责中的period_task.py,如下:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.utils.log import get_task_logger

logger = get_task_logger(__name__)
@app.task(bind=True)  # 绑定任务
def add(self,x,y):
    logger.info(self.request.__dict__)  #打印日志
    try:
        a=[]
        a[10]==1
    except Exception as e:
        raise self.retry(exc=e, countdown=5, max_retries=3) # 出错每5秒尝试一次,总共尝试3次
    return x+y

在以上代码中,通过bind参数将职务绑定,self指职务的上下文,通过self获取职务处境,同时在职分出错开上下班时间展开职分重试,大家观看日志:

美高梅开户网址 20

三.三职责调用方法统计

有三种方法:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

delay方法是apply_async简化版本。

apply_async方法是能够带万分多的配置参数,包涵内定队列等

Queue 钦点队列名称,能够把差异职责分配到差异的队列 叁.四     职责状态

每一个职责有二种情况:PENDING -> STA帕杰罗TED -> SUCCESS

职责查询状态:res.state

来查询任务的景观

美高梅开户网址 21

三.二     调用任务

 直接打开python交互命令行

 执行上边代码:

美高梅开户网址 22

 

能够celery的窗口看到职责的实践音讯

 美高梅开户网址 23

 

职分履市价况监察和控制和获得结果:

 美高梅开户网址 24

 

 

3.叁     职责调用方法总计

有两种格局:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

 

delay方法是apply_async简化版本。

apply_async方法是能够带十三分多的配置参数,包蕴钦定队列等

  • Queue 钦点队列名称,可以把分歧职务分配到差别的队列

 

停放钩子函数

  Celery在实践任务时候,提供了钩子方法用于在职务履行到位时候举行对应的操作,在Task源码中提供了许多场所钩子函数如:on_success(成功后实施)、on_failure(失利时候实施)、on_retry(职责重试时候实施)、after_return(职责重返时候实施),在进展利用是我们只要求重写这个艺术,达成相应的操作即可。

在以下示例中,大家一连修改period_task.py,分别定义八个职分来演示职务退步、重试、义务成功后进行的操作:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app
from celery.utils.log import get_task_logger
from celery import Task

logger = get_task_logger(__name__)

class demotask(Task):

    def on_success(self, retval, task_id, args, kwargs):   # 任务成功执行
        logger.info('task id:{} , arg:{} , successful !'.format(task_id,args))



    def on_failure(self, exc, task_id, args, kwargs, einfo):  #任务失败执行
        logger.info('task id:{} , arg:{} , failed ! erros : {}' .format(task_id,args,exc))


    def on_retry(self, exc, task_id, args, kwargs, einfo):    #任务重试执行
        logger.info('task id:{} , arg:{} , retry !  einfo: {}'.format(task_id, args, exc))

@app.task(base=demotask,bind=True)
def add(self,x,y):
    try:
        a=[]
        a[10]==1
    except Exception as e:
        raise self.retry(exc=e, countdown=5, max_retries=1) # 出错每5秒尝试一次,总共尝试1次
    return x+y

@app.task(base=demotask)
def sayhi(name):
    a=[]
    a[10]==1
    return 'hi {}'.format(name)

@app.task(base=demotask)
def sum(a,b):
    return 'a+b={} '.format(a+b)

那会儿的安插文件config.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd

from project import app
from celery.schedules import crontab

BROKER_URL = 'redis://10.1.210.69:6379/0' # Broker配置,使用Redis作为消息中间件

CELERY_RESULT_BACKEND = 'redis://10.1.210.69:6379/0' # BACKEND配置,这里使用redis

CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案

CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # 任务过期时间

CELERY_TIMEZONE='Asia/Shanghai'   # 时区配置

CELERY_IMPORTS = (     # 指定导入的任务模块,可以指定多个
    'project.tasks',
    'project.period_task',
)

app.conf.beat_schedule = {
'add': {          # 每10秒执行
        'task': 'project.period_task.add',  #任务路径
        'schedule': 10.0,
        'args': (10,12),
    },
'sayhi': {          # 每10秒执行
        'task': 'project.period_task.sayhi',  #任务路径
        'schedule': 10.0,
        'args': ('wd',),
    },
'sum': {          # 每10秒执行
        'task': 'project.period_task.sum',  #任务路径
        'schedule': 10.0,
        'args': (1,3),
    },
}

接下来重启worker和beat,查看日志:

美高梅开户网址 25

美高梅开户网址, 

4与Django集成

地点简单介绍了celery异步义务的骨干措施,结合我们实际的利用,我们必要与Django壹起使用,下边介绍如何与Django结合。

三.三     职务调用方法总括

有三种方法:

delay和apply_async ,delay方法是apply_async简化版。

add.delay(2, 2)
add.apply_async((2, 2))
add.apply_async((2, 2), queue='lopri')

 

delay方法是apply_async简化版本。

apply_async方法是可以带非凡多的配备参数,包涵钦定队列等

  • Queue 钦点队列名称,能够把不一致职责分配到不一样的类别

 

三.四     任务景况

各样任务有两种意况:

PENDING -> STARTED -> SUCCESS

 

职务查询状态:

res.state

 

来询问任务的情景

 美高梅开户网址 26

 

职主编排

  在家常便饭动静下,一个任务急需由八个子职务依旧多少个任务需求过多步骤才能不辱任务,Celery同样也能促成如此的职责,完结这类型的职分通过以下模块形成:

  • group: 并行调度任务

  • chain: 链式职分调度

  • chord:
    类似group,但分header和body一个部分,header能够是叁个group职责,执行到位后调用body的职务

  • map: 映射调度,通过输入三个入参来数十次调度同一个任务

  • starmap: 类似map,入参类似*args

  • chunks: 将任务依据一定数额举办分组

 

修改tasks.py:

#!/usr/bin/env python3
# -*- coding:utf-8 -*-
# Author:wd
from project import app

@app.task
def add(x,y):
    return x+y


@app.task
def mul(x,y):
    return x*y


@app.task
def sum(data_list):
    res=0
    for i in data_list:
        res+=i
    return res

 

group: 组任务,组内每种任务并行执行

和project同级目录新建consumer.py如下:

from celery import group
from project.tasks import add,mul,sum
res = group(add.s(1,2),add.s(1,2))()  # 任务 [1+2,1+2] 
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

结果:

美高梅开户网址 27

 

chain:链式职分

链式职分中,暗中同意上二个职分的归来结果作为参数字传送递给子职责

from celery import chain
from project.tasks import add,mul,sum
res = chain(add.s(1,2),add.s(3),mul.s(3))()  # 任务((1+2)+3)*3
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break
#结果
#res:18

还足以动用|表示链式职分,上面职务也能够象征为:

res = (add.s(1,2) | add.s(3) | (mul.s(3)))()
res.get()

 

chord:任务分割,分为header和body两有的,hearder职分履行完在实践body,在那之中hearder重回结果作为参数字传送递给body

from celery import chord
from project.tasks import add,mul,sum
res = chord(header=[add.s(1,2),mul.s(3,4)],body=sum.s())()  # 任务(1+2)+(3*4)
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

#结果:
#res:15

 

chunks:职分分组,遵照职分的个数分组

from project.tasks import add,mul,sum
res = add.chunks(zip(range(5),range(5)),4)()  # 4 代表每组的任务的个数
while True:
    if res.ready():
        print('res:{}'.format(res.get()))
        break

结果:

美高梅开户网址 28

 

四.一与Django集成方法

与Django集成有两种艺术:

  1. Django 一.八 以上版本:与Celery 四.0本子集成
  2. Django 1.八 以下版本:与Celery三.一版本集成,使用django-celery库

明日大家介绍celery四.0 和django 1.捌上述版本集成方法。

3.肆     义务状态

各类职责有三种状态:

PENDING -> STARTED -> SUCCESS

 

职责查询状态:

res.state

 

来查询职分的景况

 美高梅开户网址 29

 

4      与Django集成

地点简单介绍了celery异步职务的为主措施,结合大家实际上的采纳,大家要求与Django1起使用,下边介绍怎么样与Django结合。

delay &apply_async

  对于delay和apply_async都足以用来进展职分的调度,本质上是delay对apply_async进行了再一遍封装(大概能够说是急忙格局),两者都回去AsyncResult对象,以下是八个法子源码。

美高梅开户网址 30美高梅开户网址 31

    def delay(self, *args, **kwargs):
        """Star argument version of :meth:`apply_async`.

        Does not support the extra options enabled by :meth:`apply_async`.

        Arguments:
            *args (Any): Positional arguments passed on to the task.
            **kwargs (Any): Keyword arguments passed on to the task.
        Returns:
            celery.result.AsyncResult: Future promise.
        """
        return self.apply_async(args, kwargs)

delay源码

美高梅开户网址 32美高梅开户网址 33

    def apply_async(self, args=None, kwargs=None, task_id=None, producer=None,
                    link=None, link_error=None, shadow=None, **options):
        """Apply tasks asynchronously by sending a message.

        Arguments:
            args (Tuple): The positional arguments to pass on to the task.

            kwargs (Dict): The keyword arguments to pass on to the task.

            countdown (float): Number of seconds into the future that the
                task should execute.  Defaults to immediate execution.

            eta (~datetime.datetime): Absolute time and date of when the task
                should be executed.  May not be specified if `countdown`
                is also supplied.

            expires (float, ~datetime.datetime): Datetime or
                seconds in the future for the task should expire.
                The task won't be executed after the expiration time.

            shadow (str): Override task name used in logs/monitoring.
                Default is retrieved from :meth:`shadow_name`.

            connection (kombu.Connection): Re-use existing broker connection
                instead of acquiring one from the connection pool.

            retry (bool): If enabled sending of the task message will be
                retried in the event of connection loss or failure.
                Default is taken from the :setting:`task_publish_retry`
                setting.  Note that you need to handle the
                producer/connection manually for this to work.

            retry_policy (Mapping): Override the retry policy used.
                See the :setting:`task_publish_retry_policy` setting.

            queue (str, kombu.Queue): The queue to route the task to.
                This must be a key present in :setting:`task_queues`, or
                :setting:`task_create_missing_queues` must be
                enabled.  See :ref:`guide-routing` for more
                information.

            exchange (str, kombu.Exchange): Named custom exchange to send the
                task to.  Usually not used in combination with the ``queue``
                argument.

            routing_key (str): Custom routing key used to route the task to a
                worker server.  If in combination with a ``queue`` argument
                only used to specify custom routing keys to topic exchanges.

            priority (int): The task priority, a number between 0 and 9.
                Defaults to the :attr:`priority` attribute.

            serializer (str): Serialization method to use.
                Can be `pickle`, `json`, `yaml`, `msgpack` or any custom
                serialization method that's been registered
                with :mod:`kombu.serialization.registry`.
                Defaults to the :attr:`serializer` attribute.

            compression (str): Optional compression method
                to use.  Can be one of ``zlib``, ``bzip2``,
                or any custom compression methods registered with
                :func:`kombu.compression.register`.
                Defaults to the :setting:`task_compression` setting.

            link (Signature): A single, or a list of tasks signatures
                to apply if the task returns successfully.

            link_error (Signature): A single, or a list of task signatures
                to apply if an error occurs while executing the task.

            producer (kombu.Producer): custom producer to use when publishing
                the task.

            add_to_parent (bool): If set to True (default) and the task
                is applied while executing another task, then the result
                will be appended to the parent tasks ``request.children``
                attribute.  Trailing can also be disabled by default using the
                :attr:`trail` attribute

            publisher (kombu.Producer): Deprecated alias to ``producer``.

            headers (Dict): Message headers to be included in the message.

        Returns:
            celery.result.AsyncResult: Promise of future evaluation.

        Raises:
            TypeError: If not enough arguments are passed, or too many
                arguments are passed.  Note that signature checks may
                be disabled by specifying ``@task(typing=False)``.
            kombu.exceptions.OperationalError: If a connection to the
               transport cannot be made, or if the connection is lost.

        Note:
            Also supports all keyword arguments supported by
            :meth:`kombu.Producer.publish`.
        """
        if self.typing:
            try:
                check_arguments = self.__header__
            except AttributeError:  # pragma: no cover
                pass
            else:
                check_arguments(*(args or ()), **(kwargs or {}))

        app = self._get_app()
        if app.conf.task_always_eager:
            with denied_join_result():
                return self.apply(args, kwargs, task_id=task_id or uuid(),
                                  link=link, link_error=link_error, **options)

        if self.__v2_compat__:
            shadow = shadow or self.shadow_name(self(), args, kwargs, options)
        else:
            shadow = shadow or self.shadow_name(args, kwargs, options)

        preopts = self._get_exec_options()
        options = dict(preopts, **options) if options else preopts

        options.setdefault('ignore_result', self.ignore_result)

        return app.send_task(
            self.name, args, kwargs, task_id=task_id, producer=producer,
            link=link, link_error=link_error, result_cls=self.AsyncResult,
            shadow=shadow, task_type=self,
            **options
        )

apply_async源码

对此其选取,apply_async帮助常用参数:

  • eta:内定任务履行时间,类型为datetime时间项目;
  • countdown:倒计时,单位秒,浮点类型;
  • expires:职分过期时间,假设职分在抢先过期日子还未执行则回收职分,浮点类型获取datetime类型;
  • retry:职责履行破产时候是或不是尝试,布尔类型。;
  • serializer:体系化方案,扶助pickle、json、yaml、msgpack;
  • priority:义务优先级,有0~玖优先级可安装,int类型;
  • retry_policy:职务重试机制,在那之中饱含几个重试参数,类型是dict如下:

美高梅开户网址 34美高梅开户网址 35

max_retries:最大重试次数

interval_start:重试等待时间

interval_step:每次重试叠加时长,假设第一重试等待1s,第二次等待1+n秒

interval_max:最大等待时间

####示例
 add.apply_async((1, 3), retry=True, retry_policy={
        'max_retries': 1,
        'interval_start': 0,
        'interval_step': 0.8,
        'interval_max': 5,
    })

View Code

越来越多参数参考:

 

  

四.二 创设项目文件

创立三个种类:名字叫做proj

- proj/
 - proj/__init__.py
 - proj/settings.py
 - proj/urls.py
 - proj/wsgi.py
- manage.py

创设一个新的文件: proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
# should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

4      与Django集成

地点简单介绍了celery异步任务的主题格局,结合大家其实的使用,大家供给与Django壹起使用,上面介绍怎样与Django结合。

四.一     与Django集成方法

与Django集成有三种艺术:

  • Django 一.八 以上版本:与Celery 肆.0版本集成
  • Django 1.八 以下版本:与Celery3.1版本集成,使用django-celery库

 

前天大家介绍celery四.0 和django 1.八以上版本集成方法。

 伍、管理与监督

  Celery管理和监督功效是通过flower组件完毕的,flower组件不仅仅提供监督成效,还提供HTTP
API可达成对woker和task的管制。

4.3 配置Celery

我们在mycelery.py文件中证实celery的安插文件在settings.py中,并且是以CELEHighlanderY早先。

app.config_from_object('django.conf:settings', namespace='CELERY')

在settings.py文件中添加celery配置:

美高梅开户网址 36

大家的布局是使用redis作为音讯队列,音信的代办和结果都以用redis,义务的系列化使用json格式。

重中之重:redis://1贰七.0.0.一:6379/0以此表明使用的redis的0号队列,假设有三个celery职责都采取同二个行列,则会招致职分混乱。最棒是celery实例单独行使三个体系。

四.一     与Django集成方法

与Django集成有三种情势:

  • Django 一.八 以上版本:与Celery 4.0版本集成
  • Django 1.八 以下版本:与Celery3.1版本集成,使用django-celery库

 

今天大家介绍celery四.0 和django 一.八上述版本集成方法。

四.2     创立项目文件

始建二个门类:名字叫做proj

- proj/
  - proj/__init__.py
  - proj/settings.py
  - proj/urls.py
  - proj/wsgi.py
- manage.py

 

开创多少个新的文本:proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

 

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

 

安装使用

pip3 install flower

启动

 flower -A project --port=5555   
# -A :项目目录
#--port 指定端口

访问http:ip:5555

美高梅开户网址 37

api使用,例如获取woker音讯:

curl http://127.0.0.1:5555/api/workers

结果:

美高梅开户网址 38

更多api参考:

 

4.4创建APP

创建Django的App,名称为celery_task,在app目录下开创tasks.py文件。

成功后目录结构为:

├── celery_task
│ ├── admin.py
│ ├── apps.py
│ ├── __init__.py
│ ├── migrations
│ │ └── __init__.py
│ ├── models.py
│ ├── tasks.py
│ ├── tests.py
│ └── views.py
├── db.sqlite3
├── manage.py
├── proj
│ ├── celery.py
│ ├── __init__.py
│ ├── settings.py
│ ├── urls.py
│ └── wsgi.py
└── templates

4.二     创设项目文件

始建3个类型:名字称为proj

- proj/
  - proj/__init__.py
  - proj/settings.py
  - proj/urls.py
  - proj/wsgi.py
- manage.py

 

成立二个新的文书:proj/proj/mycelery.py

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

 

在proj/proj/__init__.py:添加

from __future__ import absolute_import, unicode_literals

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .mycelery import app as celery_app

__all__ = ['celery_app']

 

4.3     配置Celery

我们在mycelery.py文件中评释celery的陈设文件在settings.py中,并且是以CELESportageY开端。

   

app.config_from_object('django.conf:settings', namespace='CELERY')

 

在settings.py文件中添加celery配置:

 美高梅开户网址 39

 

咱俩的布局是行使redis作为新闻队列,音信的代办和结果都以用redis,任务的类别化使用json格式。

重在:redis://1二7.0.0.壹:6379/0以此表明使用的redis的0号队列,即使有多个celery职务都利用同四个行列,则会造成职务混乱。最佳是celery实例单独行使贰个队列。

4.5编写task任务

编写制定义务文件

tasks.py

在tasks.py文件中添加下边代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
 return x + y

@shared_task
def mul(x, y):
 return x * y

@shared_task
def xsum(numbers):
 return sum(numbers)

启动celery:celery -A proj.mycelery worker -l info

说明:proj 为模块名称,mycelery 为celery 的实例所在的文件。

起步成功打字与印刷:

美高梅开户网址 40

4.3     配置Celery

我们在mycelery.py文件中证实celery的安插文件在settings.py中,并且是以CELELX570Y早先。

   

app.config_from_object('django.conf:settings', namespace='CELERY')

 

在settings.py文件中添加celery配置:

 美高梅开户网址 41

 

大家的安顿是接纳redis作为音讯队列,音信的代理和结果都以用redis,任务的种类化使用json格式。

最首要:redis://12七.0.0.一:6379/0那几个评释使用的redis的0号队列,如若有四个celery职务都利用同1个系列,则会导致职务混乱。最棒是celery实例单独使用二个队列。

4.4     创建APP

创建Django的App,名称为celery_task,在app目录下创办tasks.py文件。

姣好后目录结构为:

├── celery_task
│   ├── admin.py
│   ├── apps.py
│   ├── __init__.py
│   ├── migrations
│   │   └── __init__.py
│   ├── models.py
│   ├── tasks.py
│   ├── tests.py
│   └── views.py
├── db.sqlite3
├── manage.py
├── proj
│   ├── celery.py
│   ├── __init__.py
│   ├── settings.py
│   ├── urls.py
│   └── wsgi.py
└── templates

 

肆.6在views中调用任务

在views中编辑接口,达成七个效益:

  1. 接触任务,然后回来任务的结果和天职ID
  2. 依照任务ID查询职责情况

代码如下:

美高梅开户网址 42

启动django。

新开1个对话运转celery;运维命令为:celery –A proj.mycelery worker –l
info

访问 ,能够看来重临的结果。

美高梅开户网址 43

在celery运维的页面,可以观察上边输出:

美高梅开户网址 44

4.4     创建APP

创建Django的App,名称为celery_task,在app目录下开创tasks.py文件。

做到后目录结构为:

├── celery_task
│   ├── admin.py
│   ├── apps.py
│   ├── __init__.py
│   ├── migrations
│   │   └── __init__.py
│   ├── models.py
│   ├── tasks.py
│   ├── tests.py
│   └── views.py
├── db.sqlite3
├── manage.py
├── proj
│   ├── celery.py
│   ├── __init__.py
│   ├── settings.py
│   ├── urls.py
│   └── wsgi.py
└── templates

 

4.5     编写task任务

编排职责文件

tasks.py

在tasks.py文件中添加下边代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
    return x + y

@shared_task
def mul(x, y):
    return x * y

@shared_task
def xsum(numbers):
    return sum(numbers)

 

启动celery:

celery -A proj.mycelery worker -l info

 

表达:proj为模块名称,mycelery为celery的实例所在的文件。

起步成功打字与印刷:

 美高梅开户网址 45

 

四.7在views中查询职责意况

壹对时候职务履行时间较长,供给查询职责是还是不是执行到位,可以根据任务的id来查询职务景况,依据事态进行下一步操作。

能够看来任务的景色为:SUCCESS

美高梅开户网址 46

4.5     编写task任务

编排职分文件

tasks.py

在tasks.py文件中添加下边代码

# Create your tasks here
from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task
def add(x, y):
    return x + y

@shared_task
def mul(x, y):
    return x * y

@shared_task
def xsum(numbers):
    return sum(numbers)

 

启动celery:

celery -A proj.mycelery worker -l info

 

表明:proj为模块名称,mycelery为celery的实例所在的文书。

起步成功打字与印刷:

 美高梅开户网址 47

 

四.陆     在views中调用任务

在views中编辑接口,完成多少个成效:

  • 接触职务,然后重回职责的结果和天职ID
  • 依照职务ID查询任务状态

代码如下:

 美高梅开户网址 48

 

启动django。

新开七个对话运转celery;运转命令为:

celery –A proj.mycelery worker –l info

 

访问,能够看出重返的结果。

 美高梅开户网址 49

 

在celery运营的页面,能够看看上边输出:

 美高梅开户网址 50

 

五Celery定时职务

Celery作为异步任务队列,大家能够依据大家设置的时光,定时的实施1些任务,例如天天数据库备份,日志转存等。

Celery的定时义务安插相当简单:

定时职务的布局依旧在setting.py文件中。

注脚:要是认为celery 的数目配置文件和Django 的都在setting.py
3个文书中不便宜,能够分拆出来,只供给在mycelery.py
的文件中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

四.6     在views中调用职责

在views中编辑接口,完毕八个作用:

  • 接触职务,然后回到职务的结果和职务ID
  • 基于职务ID查询职责景况

代码如下:

 美高梅开户网址 51

 

启动django。

新开三个会话运转celery;运维命令为:

celery –A proj.mycelery worker –l info

 

访问

 美高梅开户网址 52

 

在celery运转的页面,可以看出上面输出:

 美高梅开户网址 53

 

四.7     在views中询问职分景况

部分时候职务执行时间较长,须求查询义务是或不是履行到位,能够遵照任务的id来询问职责状态,依据气象实行下一步操作。

能够见见职务的情状为:SUCCESS

 美高梅开户网址 54

 

5.壹职分间隔运转

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
 'add-every-30-seconds': {
  'task': 'tasks.add',
  'schedule': timedelta(seconds=30),
  'args': (16, 16)
 },
}

四.7     在views中询问职责状态

部分时候义务履行时间较长,必要查询任务是不是举行到位,能够依照职务的id来查询任务意况,依照事态进行下一步操作。

能够看看职责的状态为:SUCCESS

 美高梅开户网址 55

 

伍      Celery定时职务

Celery作为异步职分队列,我们能够依据大家设置的光阴,定时的实践一些任务,例如天天数据库备份,日志转存等。

Celery的定时任务安顿万分简单:

定时职分的安顿依然在setting.py文件中。

表达:要是认为celery的数码配置文件和Django的都在setting.py叁个文书中不便利,能够分拆出来,只必要在mycelery.py的文书中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

 

 

伍.二定时执行

定时每一天午夜七:二拾5分运作。

注意:设置任务时间时注意时间格式,UTC时间照旧地方时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
 # Executes every Monday morning at 7:30 A.M
 'add-every-monday-morning': {
  'task': 'tasks.add',
  'schedule': crontab(hour=7, minute=30),
  'args': (16, 16),
 },
}

五      Celery定时职分

Celery作为异步职分队列,大家得以依照大家设置的年月,定时的实施一些职务,例如每一日数据库备份,日志转存等。

Celery的定时职分布署非凡简单:

定时职务的布局如故在setting.py文件中。

表达:假如认为celery的数目配置文件和Django的都在setting.py2个文书中不便于,能够分拆出来,只要求在mycelery.py的文件中指明即可。

app.config_from_object('django.conf:yoursettingsfile', namespace='CELERY')

 

 

5.一     任务间隔运转

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
    'add-every-30-seconds': {
        'task': 'tasks.add',
        'schedule': timedelta(seconds=30),
        'args': (16, 16)
    },
}

 

5.3定时职分运行

计划了定时义务,除了worker进程外,还须求运转一个beat进度。

Beat进度的功效就一定于叁个定时职务,根据配置来施行相应的职分。

5.3.1  启动beat进程

指令如下:celery -A proj.mycelery beat -l info

美高梅开户网址 56

5.3.2  启动worker进程

Worker进程运行和前边运转命令1样。celery –A proj.mycelery worker –l info

美高梅开户网址 57

5.1     职责间隔运营

#每30秒调用task.add
from datetime import timedelta

CELERY_BEAT_SCHEDULE = {
    'add-every-30-seconds': {
        'task': 'tasks.add',
        'schedule': timedelta(seconds=30),
        'args': (16, 16)
    },
}

 

五.贰     定时实施

定时每一日上午7:二十七分运作。

瞩目:设置任务时间时留意时间格式,UTC时间还是地面时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
    # Executes every Monday morning at 7:30 A.M
    'add-every-monday-morning': {
        'task': 'tasks.add',
        'schedule': crontab(hour=7, minute=30),
        'args': (16, 16),
    },
}

 

6 Celery深入

Celery任务协理多元的运营形式:

  1. 帮衬动态钦定并发数 –autoscale=拾,三 (always keep 3 processes, but
    grow to 十 if necessary).
  2. 支撑链式职务
  3. 支持Group任务
  4. 协理职务差别优先级
  5. 支持钦定义务队列
  6. 帮助采纳eventlet情势运作worker

诸如:内定并发数为一千

celery -A proj.mycelery worker -c 1000

那些足以遵照使用的长远机关驾驭和学习。

以上就是本文的全体内容,希望对大家的读书抱有匡助,也期望大家多多协理脚本之家。

5.2     定时举行

定时天天下午⑦:二十四分运转。

只顾:设置职务时间时只顾时间格式,UTC时间只怕当地时间。

#crontab任务
#每天7:30调用task.add
from celery.schedules import crontab

CELERY_BEAT_SCHEDULE = {
    # Executes every Monday morning at 7:30 A.M
    'add-every-monday-morning': {
        'task': 'tasks.add',
        'schedule': crontab(hour=7, minute=30),
        'args': (16, 16),
    },
}

 

伍.三     定时职分运转

布局了定时任务,除了worker进度外,还亟需运行贰个beat进程。

Beat进度的功能就一定于二个定时任务,依照安插来推行相应的职务。

你大概感兴趣的作品:

  • Django中使用celery落成异步任务的演示代码
  • 异步任务队列Celery在Django中的应用格局

伍.三     定时任务运转

布置了定时职责,除了worker进度外,还索要运维贰个beat进度。

Beat进度的功能就也等于三个定时职务,依据配置来施行相应的职分。

5.3.1  启动beat进程

指令如下:

celery -A proj.mycelery beat -l info

 美高梅开户网址 58

 

5.3.1  启动beat进程

一声令下如下:

celery -A proj.mycelery beat -l info

 美高梅开户网址 59

 

5.3.2  启动worker进程

Worker进程运营和后面运转命令一样。

 

celery –A proj.mycelery worker –l info

美高梅开户网址 60

 

5.3.2  启动worker进程

Worker进程运维和前面运营命令1样。

 

celery –A proj.mycelery worker –l info

 

6      Celery深入

Celery职分补助多元的运营方式:

  • 协助动态钦定并发数 –autoscale=10,3 (always keep 三 processes, but
    grow to 10 if necessary).
  • 支撑链式职分
  • 支持Group任务
  • 帮忙职分分裂优先级
  • 支持内定职务队列
  • 援救使用eventlet格局运作worker

比如说:钦点并发数为1000

celery -A proj.mycelery worker -c 1000

 

那些足以依据使用的递进机关领悟和上学。

 

 

6      Celery深入

Celery任务协理多元的运行形式:

  • 帮忙动态内定并发数 –autoscale=十,3 (always keep 3 processes, but
    grow to 十 if necessary).
  • 支撑链式任务
  • 支持Group任务
  • 支撑职分分裂优先级
  • 支撑钦定任务队列
  • 补助采取eventlet形式运作worker

比如说:钦点并发数为壹仟

celery -A proj.mycelery worker -c 1000

 

那些足以依照使用的力透纸背机关精通和上学。

 

 

7      参考资料

Celery官网:

Celery与Django:

celery定时职务:

柒      参考资料

Celery官网:

Celery与Django:

celery定时义务:

一Celery简介
Celery是异步职责队列,能够独立于主进度运营,在主过程退出后,也不影响队列中的职务…

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图