IPC分类号 : G06F9/48,G06F9/50,G06N3/04,G06N3/08
专利摘要
本发明提供一种基于DeepQ‑network算法的多资源云作业调度方法,包括四个步骤:通过云环境采集资源的当前配置信息和作业的需求信息;所述资源的当前配置信息和作业的需求信息分别以矩阵图像表示,所述包括单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;根据所述矩阵图像,利用深度学习方法得到高层语义信息;根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划。本发明矩阵图像能完全清晰地表示资源与作业的状态。本方法还使用了深度强化学习,将深度与强化学习进行了结合,其中深度学习主要完成环境状态感知,而强化学习完成决策,实现状态到动作的映射。
权利要求
1.一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,包括步骤:
通过云环境采集资源的当前配置信息和作业的需求信息;
所述资源的当前配置信息和作业的需求信息分别以矩阵图像表示,所述矩阵图像包括单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;
根据所述矩阵图像,利用深度学习方法得到高层语义信息;
根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划;
所述利用深度学习方法得到高层语义信息及利用强化学习方法完成资源的实时调度规划具体为:
第一步:状态空间表示,具有CPU,memory资源的集群,作业以离散时间在线方式到达集群,调度器在每个时间步选择调度至少一个等待作业,作业的资源需求在到达时已知,每个作业的资源属性表示为向量ri=(ri,1,ri,2),Ti为作业的持续时间的集群;集群状态表示接下来T个时间步为等待服务的作业配置资源的情况,集群状态图像中不同颜色代表不同的作业;系统状态空间将表示成二进制矩阵的形式作为神经网络的输入,其中彩色单位以1表示,空白单位以0表示;状态空间固定表示M个等待调度的作业的属性,剩下未被选入调度队列的作业将积压在缓冲区backlog中,等待调入调度队列;
第二步:动作空间的表示;在每个时间步,调度器将在包含M个作业的调度队列中选择调度一到多个作业进入集群中进行服务,动作空间表示为{0,1,2,...,M},当a=i表示调度作业i,a=0表示该时间步不调度任何作业;
第三步:优化目标与回报函数设计;将最小化平均作业完成时间作为优化目标,回报函数设计为:R=-|J|,J为当前时间步系统中未完成的作业数;
第四步:网络结构的设计;在网络结构设计中采用卷积层,池化层来提升网络对状态空间的特征提取能力,优化训练过程;
第五步:训练过程;在整个训练过程中,使用100个不同到达序列的作业集,每个作业集包含60个作业;在每个训练回合,对同个作业集进行N=20个作业回合的探索;记录每个作业回合所有时间步的当前状态信息St,选择的动作a,获得的回报值r,下一个状态信息St+1,当回合结束时,计算当前作业回合的每个时间步所获得的累计折扣回报vt;为了使得增加一开始的Agent对状态空间的探索力度,采用ξ递增的贪心原则来选择动作;当作业集的所有作业回合结束时,计算作业集的不同作业回合的同个时间步的选择动作所获得的累计折扣回报值的均值,作为基准值bt,然后将每个作业回合的每个时间步选择动作所获得累计折扣回报值减去基准值Δrt=vt-bt,作为该动作的评估值Δrt;最后将同个作业集的20个作业回合的各个时间步的状态信息St,动作at,动作价值Δrt,下一状态信息St+1作为一条经验信息(St,at,Δrt,St+1),存储到经验池D中;直到经验池的经验达到一定的数量,采用mini-batch训练方法,从中随机选择M=32条经验信息,采用公式更新Q网络参数,学习率为0.001;每C个训练回合才将当前Q网络的参数值复制给目标Q~网络,更新一次目标网络参数;所述公式为:
s为更新前的状态,a为对应状态s的动作,r为回报值,s′更新后的状态,a′为对应状态s′动作,γ是折扣因子,决定着Agent的视野,θi表示在第i次迭代的Q网络的参数,
2.根据权利要求1所述的一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,根据所述矩阵图像,利用深度学习方法得到高层语义信息的步骤为:
将矩阵图像输入神经网络中得到高层语义信息,所述神经网络包括卷积层、最大池化层与全连接层,矩阵图像依次经过卷积层、最大池化层与全连接层,以高层语义信息输出。
3.根据权利要求2所述的一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,所述卷积层、最大池化层与全连接层的结构与参数见表格1:
表格1.卷积层、最大池化层与全连接层的结构与参数表
。
4.根据权利要求3所述的一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,ξ的初始值为0.7,最大值为0.9,每一训练回合的增幅是0.001。
5.根据权利要求4所述的一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,所述作业平均完成时间的计算步骤包括:
得到训练完成的深度卷积神经网络,Agent将采集到的矩阵图像输入神经网络和训练完成的深度卷积神经网络组成的深度强化学习网络中,得到作业平均完成时间。
说明书
技术领域
本发明涉及云计算资源调度领域,具体涉及一种基于Deep Q-network算法的多资源云作业调度方法。
背景技术
资源调度问题是云计算领域的研究难点与热点。良好的资源分配与调度策略能够有效的利用资源,在确保用户服务质量(QoS)的同时,增加供应商的经济收益。云计算资源调度实际上是一种多约束、多目标优化的NP-hard问题。目前传统的解决决策问题的方法是在特定条件下设计具有性能保证的高效启发式算法,通用性与实用性不强,无法适应多变复杂的云环境。另外,研究人员通过将云环境下的资源调度抽象为贯序决策问题,将决策问题转化为目标函数优化问题,通过强化学习算法,寻找出资源配置的最优策略。但强化学习算法难以处理复杂高维状态空间下的资源调度问题,且存在收敛速度慢的缺点。因此,当前云计算领域的资源管理问题往往表现为复杂环境下在线决策任务的困难,而适当的解决方案取决于对系统资源环境与作业状态的理解。
申请号为CN201610261706.2的专利披露了一种基于Q学习的混合云作业调度方法,包括步骤:定义Q学习的状态空间,将云环境资源池中活跃的虚拟机数量为状态空间。该专利的不足在于活跃的虚拟机数据不能完全表示云环境内资源与作业的状态。为了让强化学习方法能处理复杂高维状态空间下的资源调度问题,状态空间得预先将云环境内资源与作业的状态信息表示出来,更优异的方法是,利用深度学习方法将状态空间解析成高层语义信息,让强化学习方法对高层语义信息进行处理。
发明内容
为解决上述问题,本发明提供一种基于Deep Q-network算法的多资源云作业调度方法,该方法将云环境内资源与作业的状态信息通过矩阵图像表示。
本发明的技术方案为:
一种基于Deep Q-network算法的多资源云作业调度方法,其特征在于,包括步骤:通过云环境采集资源的当前配置信息和作业的需求信息;所述资源的当前配置信息和作业的需求信息分别以矩阵图像表示,所述矩阵图像包括单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;根据所述矩阵图像,利用深度学习方法得到高层语义信息;根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划。
本发明方法从云环境采集资源的当前配置信息和作业的需求信息,将云环境内资源与作业的状态信息通过矩阵图像表示,矩阵图像包括彩色单元格和空白单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;那么,资源的当前配置信息就表示成接下来N个时间步为等待服务的作业配置资源数M,作业的需求信息表示成作业需要占用资源数M,持续时间为N个时间步。矩阵图像再依次经过深度学习与强化学习,实现资源的实时调度规划。当前云计算领域的资源管理问题往往表现为复杂环境下在线决策任务的困难,而适当的解决方案取决于对系统资源环境与作业状态的理解。矩阵图像能完全清晰地表示资源与作业的状态。
进一步地,根据所述矩阵图像,利用深度学习方法得到高层语义信息的步骤为:将矩阵图像输入神经网络中得到高层语义信息,所述神经网络包括卷积层、最大池化层与全连接层,矩阵图像依次经过卷积层、最大池化层与全连接层,以高层语义信息输出。
进一步地,所述卷积层、最大池化层与全连接层的结构与参数见表格1:
表格2.卷积层、最大池化层与全连接层的结构与参数表
进一步地,所述根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划的步骤为:将所述高层语义信息输入预先设计好的深度卷积神经网络中,预先设计深度卷积神经网络的步骤包括:
采集待规划Agent与云环境进行交互的历史经验,并存储在所述经验回放记忆池D中,所述历史经验为四元组信息(St,at,Δrt,St+1),St为当前状态,at为执行动作,Δrt为对应执行动作at的回报值,St+1为执行动作at后的下一个状态;所述历史经验的获取过程为:Agent根据当前状态St,从可行的动作集中任意选择一个执行动作at,Agent对执行动作at进行评估,并给予回报值Δrt;Agent采集执行动作at后的作业集,并输入到资源的当前配置集群后,得到状态St+1;持续采集待规划Agent与环境进行交互的历史经验,并存储到经验回放记忆池D中,得到训练样本集D;
在经验回放记忆池D中随机采样四元组信息(St,at,Δrt,St+1),输入到深度卷积神经网络和目标深度卷积神经网络中,并做如下处理:其中初始时,深度卷积神经网络和目标深度卷积神经网络参数相同;将状态s代入深度卷积神经网络中进行前馈操作得到所有可行动作a对应的预测Q值;将状态s在其四元组信息中对应的状态s′代入目标深度卷积神经网络中进行前馈操作计算网络输出的最大值 其中a′为状态s′代入目标深度卷积神经网络后对应最大Q值的动作,θi表示在第i次迭代的深度卷积神经网络的参数, 是用来计算第i次迭代的目标深度卷积神经网络的参数;将状态s在其四元组信息中对应的动作a的动作值Q(s,a;θi)更新为 其中γ为折扣因子;根据深度卷积神经网络和目标深度卷积神经网络的输出构建损失函数为:
其中E表示数学期望;
应用随机梯度下降方法进行深度卷积神经网络和目标深度卷积神经网络参数的迭代更新,其中深度卷积神经网络中的参数实时更新,而目标深度卷积神经网络中的参数每隔C个训练回合进行更新;当达到迭代步数后,得到训练完成的深度卷积神经网络。
进一步地,Agent对执行动作at进行评估,并给予回报值Δrt的步骤包括:Agent计算当前作业回合的每个时间步所获得的累计折扣回报vt,采用ξ递增的贪心原则来选择动作;当作业集的所有作业回合结束时,计算作业集的不同作业回合的同个时间步的选择动作所获得的累计折扣回报值的均值,作为基准值bt,然后将每个作业回合的每个时间步选择动作所获得累计折扣回报值vt减去基准值bt,作为该动作的回报值Δrt,则Δrt=vc-bt。
进一步地,ξ的初始值为0.7,最大值为0.9,每一训练回合的增幅是0.001。
进一步地,深度卷积神经网络预先设置动作空间,动作空间表示为{0,1,2,.i,…},动作空间存储所有可行动作a,当a=i表示调度作业i,a=0表示不调度任何作业。
进一步地,深度卷积神经网络将作业平均完成时间最小化作为优化目标,回报函数为R=-|J|,J为当前时间步未完成的作业数。
进一步地,所述作业平均完成时间的计算步骤包括:得到训练完成的深度卷积神经网络,Agent将采集到的矩阵图像输入神经网络和训练完成的深度卷积神经网络组成的深度强化学习网络中,得到作业平均完成时间。
进一步地,所述资源包括CPU资源与内存资源。
本发明利用深度学习方法来得到矩形图像的高层语义信息,并利用强化学习的方法来完成从云环境的端到端的实时资源的调度规划。训练过程中将在云环境中采集到的资源的当前配置信息和作业的需求信息处理成矩阵图像后作为当前状态带入神经网络中得到解析结果,然后将解析结果输入到设计好的深度卷积神经网络中,通过训练得到特定场景中Agent的每步决策动作,进而得到最优的完整路径。实际应用过程,利用训练好的深度强化学习网络,将采集到的矩阵图像输入,即可得到作业平均完成时间。本发明涉及:1、云环境采集资源的当前配置信息和作业的需求信息以矩阵图像表示。1、矩阵图像经神经网络解析处理,作为后续深度卷积网络的输入;2、深度卷积神经网络的应用:Agent在云环境中获得当前的矩阵图像,将其输入到事先设计好的深度卷积神经网络中,进行进一步的高度抽象特征提取,为后续的训练处理做准备;3、深度学习与强化学习的结合:即用深度卷积神经网络(deep recurrent Q-Network)去逼近表达强化学习(Q-Learning)方法;4、网络参数的训练:对深度卷积神经网络产生的损失函数通过随机梯度下降(SGD)法进行迭代训练,得到所需的最优参数。本发明提出的方法与诸多现有方法相比,最大的不同是根据矩阵图像表示资源与作业的状态。矩阵图像在Agent与环境进行交互的过程中完成资源调度规划。深度强化学习方法解决资源调度问题,方法设计合理,能够在不同场景下结合迁移学习实现准确的资源调度,适用性广泛。
附图说明
图1为本发明一种基于Deep Q-network算法的多资源云作业调度方法的流程图
图2为使用该发明方法的一个实施例的基本架构图
具体实施方式
以下结合附图对本发明进行进一步说明。
一种基于Deep Q-network算法的多资源云作业调度方法,如图1所示,包括步骤:通过云环境采集资源的当前配置信息和作业的需求信息;所述资源的当前配置信息和作业的需求信息分别以矩阵图像表示,所述包括单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;根据所述矩阵图像,利用深度学习方法得到高层语义信息;根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划。
本发明方法从云环境采集资源的当前配置信息和作业的需求信息,将云环境内资源与作业的状态信息通过矩阵图像表示,矩阵图像包括彩色单元格和空白单元格,同一种彩色的单元格表示同一个作业,同一种彩色的单元格形成的矩形包括M×N个单元格,M表示资源数,N表示时间步;那么,资源的当前配置信息就表示成接下来N个时间步为等待服务的作业配置资源数M,作业的需求信息表示成作业需要占用资源数M,持续时间为N个时间步。矩阵图像再依次经过深度学习与强化学习,实现资源的实时调度规划。当前云计算领域的资源管理问题往往表现为复杂环境下在线决策任务的困难,而适当的解决方案取决于对系统资源环境与作业状态的理解。矩阵图像能完全清晰地表示资源与作业的状态。所述资源包括CPU资源与内存资源。
具体地,根据所述矩阵图像,利用深度学习方法得到高层语义信息的步骤为:将矩阵图像输入神经网络中得到高层语义信息。所述神经网络包括卷积层、最大池化层与全连接层,矩阵图像依次经过卷积层、最大池化层与全连接层,以高层语义信息输出。
具体地,所述卷积层、最大池化层与全连接层的结构与参数见表格1:
表格3.卷积层、最大池化层与全连接层的结构与参数表
具体地,所述根据所述高层语义信息,利用强化学习方法完成资源的实时调度规划的步骤为:将所述高层语义信息输入预先设计好的深度卷积神经网络中,预先设计的深度卷积神经网络的步骤包括:
采集待规划Agent与云环境进行交互的历史经验,并存储在所述经验回放记忆池D中,所述历史经验为四元组信息(St,at,Δrt,St+1),St为当前状态,at为执行动作,Δrt为对应执行动作at的回报值,St+1为执行动作at后的下一个状态;所述历史经验的获取过程为:Agent根据当前状态St,从可行的动作集中任意选择一个执行动作at,Agent对执行动作at进行评估,并给予回报值Δrt;Agent采集执行动作at后的作业集,并输入到资源的当前配置集群后,得到状态St+1;持续采集待规划Agent与环境进行交互的历史经验,并存储到经验回放记忆池D中,得到训练样本集D;
在经验回放记忆池D中随机采样四元组信息(St,at,Δrt,St+1),输入到深度卷积神经网络和目标深度卷积神经网络中,并做如下处理:其中初始时,深度卷积神经网络和目标深度卷积神经网络参数相同;将状态s代入深度卷积神经网络中进行前馈操作得到所有可行动作a对应的预测Q值;将状态s在其四元组信息中对应的状态s′代入目标深度卷积神经网络中进行前馈操作计算网络输出的最大值 其中a′为状态s′代入目标深度卷积神经网络后对应最大Q值的动作,θi表示在第i次迭代的深度卷积神经网络的参数, 是用来计算第i次迭代的目标深度卷积神经网络的参数;将状态s在其四元组信息中对应的动作a的动作值Q(s,a;θi)更新为 其中γ为折扣因子;根据深度卷积神经网络和目标深度卷积神经网络的输出构建损失函数为:
其中E表示数学期望;
应用随机梯度下降方法进行深度卷积神经网络和目标深度卷积神经网络参数的迭代更新,其中深度卷积神经网络中的参数实时更新,而目标深度卷积神经网络中的参数每隔C个训练回合进行更新;当达到迭代步数后,得到训练完成的深度卷积神经网络。
具体地,Agent对执行动作at进行评估,并给予回报值Δrt的步骤包括:Agent计算当前作业回合的每个时间步所获得的累计折扣回报vt,采用ξ递增的贪心原则来选择动作;当作业集的所有作业回合结束时,计算作业集的不同作业回合的同个时间步的选择动作所获得的累计折扣回报值的均值,作为基准值bt,然后将每个作业回合的每个时间步选择动作所获得累计折扣回报值vt减去基准值bt,作为该动作的回报值Δrt,则Δrt=vt-bt。优选地,ξ的初始值为0.7,最大值为0.9,每一训练回合的增幅是0.001。
深度卷积神经网络预先设置动作空间,动作空间表示为{0,1,2,.i,…},动作空间存储所有可行动作a,当a=i表示调度作业i,a=0表示不调度任何作业。
深度卷积神经网络将作业平均完成时间最小化作为优化目标,回报函数为R=-J,J为当前时间步未完成的作业数。
所述作业平均完成时间的计算步骤包括:得到训练完成的深度卷积神经网络,Agent将采集到的矩阵图像输入神经网络和训练完成的深度卷积神经网络组成的深度强化学习网络中,得到作业平均完成时间。同时,也可以得到回报值。
本发明利用深度学习方法来得到矩形图像的高层语义信息,并利用强化学习的方法来完成从云环境的端到端的实时资源的调度规划。训练过程中将在云环境中采集到的资源的当前配置信息和作业的需求信息处理成矩阵图像后作为当前状态带入神经网络中得到解析结果,然后将解析结果输入到设计好的深度卷积神经网络中,通过训练得到特定场景中Agent的每步决策动作,进而得到最优的完整路径。实际应用过程,利用训练好的深度强化学习网络,将采集到的矩阵图像输入,即可得到作业平均完成时间。本发明涉及:1、云环境采集资源的当前配置信息和作业的需求信息以矩阵图像表示。1、矩阵图像经神经网络解析处理,作为后续深度卷积网络的输入;2、深度卷积神经网络的应用:Agent在云环境中获得当前的矩阵图像,将其输入到事先设计好的深度卷积神经网络中,进行进一步的高度抽象特征提取,为后续的训练处理做准备;3、深度学习与强化学习的结合:即用深度卷积神经网络(deep convolutional Q-Network)去逼近表达强化学习(Q-Learning)方法;4、网络参数的训练:对深度卷积神经网络产生的损失函数通过随机梯度下降(SGD)法进行迭代训练,得到所需的最优参数。本发明提出的方法与诸多现有方法相比,最大的不同是根据矩阵图像表示资源与作业的状态。矩阵图像在Agent与环境进行交互的过程中完成资源调度规划。深度强化学习方法解决资源调度问题,方法设计合理,能够在不同场景下结合迁移学习实现准确的资源调度,适用性广泛。
图2为使用该发明方法的一个实施例的基本架构图,基于该基本架构图,实现步骤如下:
第一步:状态空间表示,具有CPU,memory资源的集群,作业以离散时间在线方式到达集群,调度器在每个时间步选择调度至少一个等待作业,作业的资源需求在到达时已知,每个作业的资源属性表示为向量ri=(ri,1,ri,2),Ti为作业的持续时间的集群;集群状态表示接下来T个时间步为等待服务的作业配置资源的情况,集群状态图像中不同颜色代表不同的作业;系统状态空间将表示成二进制矩阵的形式作为神经网络的输入,其中彩色单位以1表示,空白单位以0表示;状态空间固定表示M个等待调度的作业的属性,剩下未被选入调度队列的作业将积压在缓冲区backlog中,等待调入调度队列。
第二步:动作空间的表示。在每个时间步,调度器将在包含M个作业的调度队列中选择调度一到多个作业进入集群中进行服务,动作空间表示为{0,1,2,...,M},当a=i表示调度作业i,a=0表示该时间步不调度任何作业。
第三步:优化目标与回报函数设计。将最小化平均作业完成时间作为优化目标,回报函数设计为:R=-|J|,J为当前时间步系统中未完成的作业数。
第四步:网络结构的设计。本文在网络结构设计中采用卷积层,池化层来提升网络对状态空间的特征提取能力,优化训练过程。具体的网络结构和参数如下表所示。
第五步:训练过程。在整个训练过程中,使用100个不同到达序列的作业集,每个作业集包含60个作业;在每个训练回合,对同个作业集进行N=20个作业回合的探索;记录每个作业回合所有时间步的当前状态信息St,选择的动作a,获得的回报值r,下一个状态信息St+1,当回合结束时,计算当前作业回合的每个时间步所获得的累计折扣回报vt;为了使得增加一开始的Agent对状态空间的探索力度,采用ξ递增的贪心原则来选择动作;当作业集的所有作业回合结束时,计算作业集的不同作业回合的同个时间步的选择动作所获得的累计折扣回报值的均值,作为基准值bt,然后将每个作业回合的每个时间步选择动作所获得累计折扣回报值减去基准值Δrt=vt-bt,作为该动作的评估值Δrt;最后将同个作业集的20个作业回合的各个时间步的状态信息St,动作at,动作价值Δrt,下一状态信息St+1作为一条经验信息(St,at,Δrt,St+1),存储到经验池D中;直到经验池的经验达到一定的数量,采用mini-batch训练方法,从中随机选择M=32条经验信息,采用公式更新Q网络参数,学习率为0.001;每C个训练回合才将当前Q网络的参数值复制给目标Q~网络,更新一次目标网络参数。
γ是折扣因子,决定着Agent的视野,θi表示在第i次迭代的Q网络的参数, 是用来计算第i次迭代的目标Q~网络参数,E表示数学期望。
第六步:测试模型。实验中使用100个不同到达序列的作业集作为训练集,20个作业集作为测试集(未出现在训练集中),每个作业集包含60个作业(80%的作业持续时间为1-3t,20%的作业持续时间为10-15t,长短作业占用的CPU,内存均在1-3个单位之间)。在每个训练回合,对同个作业集进行N=20个作业回合的仿真实验,直到调度完所有作业,回合结束。迭代总次数1000次,每训练10次即使用测试集对模型策略进行测试,记录测试作业集作业平均完工时间和总回报值。
资源调度问题是云计算领域的研究难点与热点。良好的资源分配与调度策略能够有效的利用资源,在确保用户服务质量(QoS)的同时,增加供应商的经济收益。云计算资源调度实际上是一种多约束、多目标优化的NP-hard问题。目前传统的解决决策问题的方法是在特定条件下设计具有性能保证的高效启发式算法,通用性与实用性不强,无法适应多变复杂的云环境。另外,研究人员通过将云环境下的资源调度抽象为贯序决策问题,将决策问题转化为目标函数优化问题,通过强化学习算法,寻找出资源配置的最优策略。但强化学习算法难以处理复杂高维状态空间下的资源调度问题,且存在收敛速度慢的缺点。因此,当前云计算领域的资源管理问题往往表现为复杂环境下在线决策任务的困难,而适当的解决方案取决于对系统资源环境与作业状态的理解。综上所述,本技术将强化学习的交互试错机制和深度神经网络强大的非线性泛化能力结合起来应用到复杂云环境下的资源调度领域,生成在线自适应的资源调度策略,提高作业平均完成时间具有重要的现实意义。近年来,针对云计算资源调度优化问题,国内外学者进行了大量深入的研究。云计算资源调度实际上是一种多约束、多目标优化的NP-hard问题。组织良好的云资源调度方案有利于云供应商实现收益最大化,云资源的充分利用,系统能耗的最小化,保证服务质量(Qos)。深度强化学习算法结合强化学习的交互试错机制和深度神经网络强大的非线性泛化能力,模型简单、通用,解决了强化学习面对过大的状态或动作空间而难以实用的问题。并且神经网络能够准确的掌握资源动态,提取资源环境特征,为调度决策提供有用信息,能够根据系统状态生成在线的自适应资源调度策略。
显然,本发明的上述实施例仅仅是为清楚地说明本发明技术方案所作的举例,而并非是对本发明的具体实施方式的限定。凡在本发明权利要求书的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
一种基于DeepQ-network算法的多资源云作业调度方法专利购买费用说明
Q:办理专利转让的流程及所需资料
A:专利权人变更需要办理著录项目变更手续,有代理机构的,变更手续应当由代理机构办理。
1:专利变更应当使用专利局统一制作的“著录项目变更申报书”提出。
2:按规定缴纳著录项目变更手续费。
3:同时提交相关证明文件原件。
4:专利权转移的,变更后的专利权人委托新专利代理机构的,应当提交变更后的全体专利申请人签字或者盖章的委托书。
Q:专利著录项目变更费用如何缴交
A:(1)直接到国家知识产权局受理大厅收费窗口缴纳,(2)通过代办处缴纳,(3)通过邮局或者银行汇款,更多缴纳方式
Q:专利转让变更,多久能出结果
A:著录项目变更请求书递交后,一般1-2个月左右就会收到通知,国家知识产权局会下达《转让手续合格通知书》。
动态评分
0.0