当前位置: 主页 > 航空制造 >

时间:2018-09-16 11:46来源:航空维修专业者 作者:中国航空
曝光台 注意防骗 网曝天猫店富美金盛家居专营店坑蒙拐骗欺诈消费者

 1.俄罗斯2025年前将向MS-21飞机项目投资4600亿卢布

 

据外媒9月13日消息,俄罗斯副总理尤里·鲍里索夫表示,MS-21中程干线客机项目在2025年前将获得国家投入资金将达到4600亿卢布。鲍里索夫还透露,为MS-21飞机研制的PD-14新型发动机正在进行产品检测测试。据悉,MS-21飞机将从2020年开始批量交付。

2.俄罗斯PD-14航空发动机即将取得技术合格证

 

据外媒9月13日消息,俄罗斯联合发动机制造集团-航空发动机公司总经理兼总设计师亚历山大·伊诺叶姆采夫表示,PD-14航空发动机将于近两周内获得联邦航空运输署颁发的技术合格证。PD-14航空发动机将主要用于俄罗斯正在研制的MS-21-300飞机。据悉,2018年内应该组装三台PD-14发动机,然后送至MS-21-300飞机研发和生产商伊尔库特集团。PD-14发动机是俄罗斯近十多年来首个完全国产化的商用航空发动机,大量使用了新技术工艺和材料,其中包括复合材料。

3.美国U-SAFE无人交通管理走廊项目进入第二阶段

 

据外媒9月13日消息,美国东北无人机系统空域一体化研究联盟(NUAIR)宣布,无人安全自主飞行环境(U-SAFE)走廊项目初始作战能力(IOC)已进入第二阶段。在第二阶段,作为正在进行的北部振兴计划(URI)一部分,U-SAFE项目继续开发和执行纽约无人空中系统交通管理走廊,此外,NUAIR已与SRC公司签订合作协议,SRC公司将为项目第二阶段提供监视设备和相关服务,这为U-SAFE项目能够大规模、高密度地顺利进行有人和无人机的超视距飞行操作提供了重要的保障。

4.DARPA探索用脑电波控制多架飞行器 

 

据外媒9月13日消息,美国国防部高级研究计划局(DARPA)生物技术办公室(BTO)正在探索用脑电波控制一群飞行器,甚至是先进的战斗机。这项工作建立在2015年的研究基础之上,当时DARPA为一名瘫痪的女性植入一个小型的微芯片,从而利用脑电波操控虚拟的F-35战斗机。如今,生物技术办公室的宣布扩大了技术范围,允许操作员同时操控多架喷气式战斗机或无人机。DARPA还改善了操作员和模拟飞机之间的相互作用,使操作员不仅可以发送信号,还可以接收来自飞行器的信号。

5.美国林肯实验室开发出可解释视觉推理人工神经网络

 

美国麻省理工学院林肯实验室的研究人员开发了一种神经网络模型,可以像人一样进行推理,回答有关图像内容和问题,为理解神经网络如何做出决策设立了新的标准。该模型被命名为“透明设计网络”(TbD-net),能在解题时可视化地呈现其思维过程,使人类分析师能够解释其决策过程,其性能优于目前最好的视觉推理神经网络。

神经网络是脑启发AI系统,旨在复制人类学习的方式,由输入、输出以及介于两者之间的“层”组成,将输入转换为正确的输出。 一些深度神经网络非常复杂,以至于几乎不可能跟踪其转换过程。 TbD-net的设计目标是使这些内部工作变得透明。透明度很重要,因为它允许人类解释AI的结果。但即使是目前最好的神经网络也缺乏这种透明度,使人们能够理解他们的推理过程。

林肯实验室的TbD-net兼顾了性能和可解释性,其关键是将系统分解为一组“模块”集合,这些模块是专门用于执行特定子任务的小型神经网络。 当TbD-net被问到关于图像的视觉推理问题时,它将问题分解为子任务并分配适当的模块来执行,最终产生正确答案。 总的来说,TbD-net利用一种解释人类语言问题的AI技术将这些句子分解为子任务,然后是多种解释图像的计算机视觉AI技术。

每个模块的输出在视觉上按照“注意力掩码”进行分组, 注意力掩码显示模块在图像中识别出的作为答案的对象上的热图blob。 这些可视化使人类分析师能够看到模块如何解释图像。举例来说,对TbD-net提出以下问题:“在这张图片中,大金属立方体是什么颜色?”为了回答这个问题,第一个模块仅定位大对象,产生一个注意力掩码,突出显示那些大对象;下一个模块接受这个输出并找出前一个模块中识别的大对象中哪一个是金属的;该模块的输出被发送到下一个模块,该模块识别哪些大金属对象是一个立方体;最后 ,这个输出被发送到一个可以确定对象颜色的模块,TbD-net的最终输出是“红色”,这是问题的正确答案。

研究人员使用视觉问答数据集评估了该模型,该数据集包括7万个训练图像和70万个问题,以及1万5千个图像和15万个问题的测试和验证集,初始模型在数据集上实现了98.7%的测试精度,远优于其他神经模块网络。由于TbD-net在视觉推理过程的每个阶段都能提供直观,可解释的输出,研究人员能够通过查看模块产生的注意力掩码来改善这些结果,研究人员可以看到出现问题的地方并对模型加以改进。改进后的模型的准确度可达99.1%。如果要让深度学习算法帮助人类解决复杂的现实世界任务,那么可解释性尤其有用。为了在这些系统中建立信任,用户需要能够检查推理过程,以便他们能够理解模型为何以及如何做出错误的预测。该研究的相关论文《Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning》已在2018计算机视觉和模式识别会议(CVPR)上发表。


 
中国航空网 www.aero.cn
航空翻译 www.aviation.cn
本文链接地址:俄罗斯2025年前将向MS-21飞机项目投资4600亿卢布