期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
带动作回报的连续时间Markov回报过程验证 预览
1
作者 黄镇谨 陆阳 +1 位作者 杨娟 王智文 《电子测量与仪器学报》 CSCD 北大核心 2015年第11期1603-1613,共11页
为了能够更准确的表达不确定性复杂系统的时空验证,针对当前连续时间Markov回报过程(continue time markov reward decision process,CMRDP)验证中只考虑状态回报的问题,提出带动作回报的验证方法。考虑添加了动作回报的空间性能约束... 为了能够更准确的表达不确定性复杂系统的时空验证,针对当前连续时间Markov回报过程(continue time markov reward decision process,CMRDP)验证中只考虑状态回报的问题,提出带动作回报的验证方法。考虑添加了动作回报的空间性能约束,扩展现有的基于状态回报的连续时间Markov回报过程,用正则表达式表示验证属性的路径规范,扩展已有路径算子的表达能力。给出带动作回报CMRDP和路径规范的积模型,求解积模型在确定性策略下的诱导Markov回报模型(markov reward model,MRM),将CMRDP上的时空性能验证转换为MRM模型上的时空可达概率分析,并提出MRM中求解可达概率的算法。实例分析表明,提出的验证思路和验证算法是可行的。 展开更多
关键词 Markov回报过程 模型验证 动作回报 时空有界可达概率
在线阅读 下载PDF
基于SARSA(λ)的实时交通信号控制模型 预览 被引量:4
2
作者 戈军 周莲英 《计算机工程与应用》 CSCD 北大核心 2015年第24期244-248,共5页
针对现有交通灯控制器缺乏过去经验的学习能力,导致其无法适应实际交通环境的动态变化,提出了一种基于SARSA(λ)的实时交通信号控制模型,并给出了一种交通信号优化模型及算法,该模型采用强化学习算法,得出交通控制的最优调度策略。仿... 针对现有交通灯控制器缺乏过去经验的学习能力,导致其无法适应实际交通环境的动态变化,提出了一种基于SARSA(λ)的实时交通信号控制模型,并给出了一种交通信号优化模型及算法,该模型采用强化学习算法,得出交通控制的最优调度策略。仿真实验结果表明,所提模型优于现有交通控制模型,能更好地促进实时动态交通控制实现。 展开更多
关键词 状态-动作-回报-状态-动作 实时交通信号控制 强化学习 交通评价指标 时序差分学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部 意见反馈