您现在的位置: 首页> 研究主题> 兵棋推演

兵棋推演

兵棋推演的相关文献在1988年到2022年内共计203篇,主要集中在自动化技术、计算机技术、军事技术、中国军事 等领域,其中期刊论文151篇、会议论文17篇、专利文献2494篇;相关期刊83种,包括系统工程与电子技术、装备学院学报、火力与指挥控制等; 相关会议14种,包括第15届中国系统仿真技术及其应用学术会议、中国电子学会电子系统工程分会第十九届军队信息化理论学术研讨会、2010系统仿真技术及其应用学术会议等;兵棋推演的相关文献由507位作者贡献,包括胡晓峰、苏喜生、贺德富等。

兵棋推演—发文量

期刊论文>

论文:151 占比:5.67%

会议论文>

论文:17 占比:0.64%

专利文献>

论文:2494 占比:93.69%

总计:2662篇

兵棋推演—发文趋势图

兵棋推演

-研究学者

  • 胡晓峰
  • 苏喜生
  • 贺德富
  • 王桂起
  • 刘忠
  • 徐磊
  • 杨勇
  • 冯旸赫
  • 刘楠
  • 唐宇波
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 张韬; 项祺; 郑婉文; 孙宇祥; 周献中
    • 摘要: 为满足海战兵棋推演中多目标路径规划的需求,解决传统A^(*)算法无法在兵棋推演中直接运用的问题,提出一种可供类似兵棋推演环境参考、基于改进A*算法的路径规划方法。建立一种映射机制,实现了A^(*)算法在兵棋推演环境中的初步运用。构建一种既能满足多目标需求又能保证生成最优路径的估价函数。为验证算法有效性,在实际推演平台上进行了相关实验。结果表明,改进A^(*)算法可较好地统筹多个决策目标之间的关系,有效提升路径方案的质量,解决使用A^(*)算法在海战兵棋推演中进行最优路径规划的实际问题。
    • 田佩; 臧兆祥; 郭鸿村; 张震
    • 摘要: 在兵棋推演过程中,面对策略的不确定性和决策情况的复杂性,人类专家制定的策略往往需要经过计算推演的验证,计算结果也可能会和预想结果大相径庭,而智能决策辅助推演可以极大地提升推演过程中策略制定的准确性。针对传统有限状态机决策机制的不灵活,模糊状态机又缺乏适应性的问题,提出了一种基于行为树的智能决策方法来实现兵棋的实时决策过程,并基于Behavior3 Editor平台实现行为树的策略生成过程,最后将基于行为树的智能决策方法用于海空兵棋推演,实现了作战策略的生成,验证了该方法的可行性和有效性。
    • 梁星星; 马扬; 冯旸赫; 张驭龙; 张龙飞; 廖世江; 刘忠
    • 摘要: 军事行动、反恐突击等强对抗场景中,实时信息的碎片化、不确定性对制定具有博弈优势的弹性行动方案提出了更高的要求,研究具有自学习能力的智能行动策略规划方法已成为编队级强对抗任务的核心问题.针对复杂场景下行动策略规划状态表征困难、数据效率低下等问题,提出了基于预测编码的样本自适应行动策略规划方法.利用自编码模型压缩表示任务的原始状态空间,通过任务环境的状态转移样本,在低维度状态空间中使用混合密度分布网络对任务环境的动态模型进行学习,获得了表征环境动态性的预测编码;基于预测编码展开行动策略规划研究,利用时间差分敏感的样本自适应方法对状态评估值函数进行预测,改善了数据效率,加速了算法收敛.为了验证算法的有效性,基于全国兵棋推演大赛机机挑战赛的想定,构建了包含大赛获奖选手操作策略的5种规则智能体,利用消融实验验证编码方式、样本采样策略等不同因子组合对算法的影响,并使用Elo评分机制对各个智能体进行排序;实验结果表明:基于预测编码的样本自适应算法——MDN-AF得分排序最高,对战平均胜率为71%,其中大比分获胜局占比为67.6%,而且学习到了自主波次划分、补充侦察策略、“蛇形”打击策略、轰炸机靠后突袭等4种长时行动策略.该算法框架应用于2020年全国兵棋推演大赛的智能体开发,并获得了全国一等奖.
    • 摘要: 推进国防科技管理创新变革,深化军事战略竞争2021年,随着人工智能、量子等前沿科技快速发展与应用,世界国防科技创新进入活跃发展时期。世界主要国家推出多项国防科技管理创新举措,增设创新管理机构,频繁开展样机研发、兵棋推演、成果转化应用等活动,加强国防科技创新政策制度、基础条件与人才队伍建设,不断增强国防科技创新能力,提升本国战略竞争力。
    • 张寒; 黄炎焱; 耿泽; 张振
    • 摘要: 针对当前营区应对复杂突发事件情景下的应急指挥管理能力薄弱、应急方案效能难以量化评估决策的问题,提出了基于兵棋的营区突发事件应急保障方案的仿真推演评估方法。结合营区应急作战特点和兵棋要素技术,建立基于“情景-应对”应急模式的营区突发事件机理形式化描述,采用案例推理方法将当前突发事件情景与历史案例库进行相似度对比分析,构建一套适合突发事件快速响应生成应急方案的方法。以H营区油料库及核燃料库遭敌特偷袭引发的突发事件为想定背景,采用兵棋方法开展对营区应急保障行动方案的仿真推演与效能评估,验证了突发事件应急方案快速评估方法的可行性,可为营区非常规突发事件应急决策提供重要的支持。
    • 王佳宝; 任林林
    • 摘要: 兵棋推演被誉为导演战争的“魔术师”,依托先进科学技术、着眼战争特点规律,通过模拟基于“战场元宇宙”的未来战争图景,让部队官兵在酷似实战的多维、超级时空环境中锤炼打仗本领,这对提升我军实战化水平和打赢能力具有划时代的意义。对此,我们只有充分了解兵棋推演的发展历史、认清兵棋推演的重要意义,才能真正发挥兵棋推演战斗力“倍增器”效能。
    • 项祺; 周佳炜; 孙宇祥; 于佳慧; 张韬; 周献中
    • 摘要: 针对战场态势变化快、体量大导致指挥员难以快速认知这一问题,提出了一种融合多尺度特征与软注意力机制(MSF-SAM)的战场态势认知方法,其中,特征提取网络通过对不同卷积层的输出进行操作,并结合软注意力机制分配特征的不同权重,从而获得网络对图像不同部分的关注度,即上下文信息,并将上下文信息输入到LSTM网络中进行解析,最后得到图像态势认知结果。在兵棋态势图像数据集上进行了验证,通过比较该方法与经典方法、有无软注意力的对比方式,验证了所提方法的有效性,且在智能兵棋推演中具有一定的应用价值。
    • 徐佳乐; 张海东; 赵东海; 倪晚成
    • 摘要: 针对从“人在回路”兵棋推演的复盘数据中提取推演者战术经验高价值知识的问题,提出一种基于深度神经网络从复盘数据中学习战术机动策略模型的方法。将战术机动策略建模为在当前态势特征影响下对目标候选位置进行优选的分类问题:梳理总结影响推演者决策的关键认知因素,定义了由机动范围和观察范围等7个属性构成的基础态势特征,建立了带有正负样本标注的态势特征数据集;设计了基于卷积神经网络的分类器,以分类概率实现了单个棋子战术机动终点位置的预测。实验结果表明:该模型的预测准确率可达到78.96%,相比其他模型提高至少4.59%。
    • 张振; 黄炎焱; 张永亮; 陈天德
    • 摘要: 针对一种大地图和稀疏奖励的兵棋推演对抗环境下,单纯的深度强化学习算法会导致训练无法快速收敛以及智能体对抗特定规则智能体胜率较低的问题,提出了一种基于监督学习和深度强化学习相结合以及设置额外奖励的方法,旨在提升智能博弈的训练效果.使用监督学习训练智能体;研究基于近端策略优化(Proximal policy optimization,PPO)的对抗算法;改进强化学习训练过程的额外奖励设置.以某在研兵棋推演环境为例的实验结果表明,该博弈对抗算法能使智能体在对抗其他智能体时的胜率稳步提升并在较短时间内达到收敛.
    • 李琛; 黄炎焱; 张永亮; 陈天德
    • 摘要: 将人工智能应用于兵棋推演的智能战术兵棋正逐年发展,基于Actor-Critic框架的决策方法可以实现智能战术兵棋的战术行动动态决策.但若Critic网络只对单算子进行评价,多算子之间的网络没有协同,本方算子之间各自行动决策会不够智能.针对上述方法的不足,提出了一种基于强化学习并结合规则的多智能体决策方法,以提升兵棋推演的智能水平.侧重采用强化学习对多算子的行动决策进行决策分析,并结合产生式规则对战术决策进行规划.构建基于Actor-Critic框架的多算子分布执行集中训练的行动决策模型,对比每个算子互不交流的封闭式行动决策学习方法,提出的分布执行集中训练方法更具优势且有效.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号