联系
我们
投稿
反馈
评论 返回
顶部

内容字号: 默认 大号超大号

段落设置: 段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

AI City竞赛:智能交通视频分析的ImageNet

2018-08-27 12:36 出处:互联网 人气: 评论(
丁维民新浪博客 黑崎扇菜 上校爹地耍流氓 木下亚由美种子 仁科百华128 沙里奈 女人被虐图片 平头书楼 天天基金净值查询网 网王之百里西麟

“智能交通视频分析界的ImageNet竞赛”——英伟达城市挑战赛落下帷幕。新加坡松下研究院联合中科院自动化所,提出了一种双模态动静联合检测方案,在交通异常检测比赛中拔得头筹,获得了很高检测准确度的同时保持了极低的检测时间误差。由于提出的方案具有准确度高,鲁棒性强,对数据的分辨率敏感度低等优点,可以作为真实场景下的异常检测的一种可靠的解决方案。

2020年,全球将有十亿个摄像头。未来,智能视频分析可以解决交通、公共安全、预防犯罪、高效资源利用等一些城市规模问题,改善大型公共和私人空间(比如商场、体育馆、火车站、机场等)的用户体验。

虽然目前存在一些用于视频检索的语料库和基准(例如,NIST TRECVID),但对于交通或公共安全来说,还缺少大规模带标记的高质量视频数据的语料库,而要将视频分析应用在现实世界问题中,这样的数据库必不可少。

英伟达 AI City 挑战赛正是在这样的背景下提出,受 ImageNet 数据集启发,AI City 竞赛旨在创建优质视频数据集,使全球的学术和工业研究团队能够推动各种智能视频分析的最新技术,解决现实世界的问题。

AI City 挑战赛由英伟达联合纽约州立大学奥尔巴尼分校、爱荷华州立大学、圣何塞州立大学、华盛顿大学发起,吸引了来自华盛顿大学、UIUC、北京大学、IBM等全球多所高校和机构的参与。

竞赛从 2018 年 1 月 20 日开始,4 月 5 日结束,一共有三项任务(track)。最开始有 70 多支队伍报名,但由于问题很难、时间很紧等种种原因,最终 22 支队伍提交了方案。在CVPR 2018上,主办方公布了结果[2]。

其中,华盛顿大学取得了任务 1 和任务 3 的冠军,而任务 2 交通异常检测的冠军,则由新加坡松下研究院申省梅团队,联合中科院自动化所获得。任务 2 的亚军,是北京邮电大学的团队。

AI City 竞赛:智能交通视频分析的ImageNet

去年,第一届 AI City 挑战赛,重点是对岔路口交通摄像头视频语料库进行对象检测、定位和分类。今年第二届 AIC18,组织者决定“跳出边界框”,向更加接近现实世界问题的场景靠拢。

比如说,美国的道路交通管理局,急需能够自动分析交通视频内容的系统,因为让人类来观看所有这些视频是不现实的;实际上,现在很多摄像头采集的大量数据都被浪费了,没有得到有效利用。

在与多个交通运输机构以及公共安全机构磋商后,竞赛组织者将重点放在三项任务上:

估计交通流量特征,例如在任何时间每辆可见车辆的精确位置和速度。

利用无监督的方法来检测由碰撞、停车等引起的异常情况。这可以让人也加入到决策的过程中来,注意到有意义的视觉信息,以便及时干预可以被挽救的生命。

城市环境中多摄像机跟踪和对象重识别。这对交通分析以及识别和预防犯罪非常有用,也能使用户尽可能快地对正在发生中的事件做出反应。

竞赛的数据从美国多个城市和州挑选交叉路口和高速公路的数据(见下图)收集而来。他们专门组建了一组作为对照组的车队,并使用这些车辆产生的数据来生成Ground Truth。

AIC18数据集:从爱荷华州和硅谷高速路上获取的数据样本

交通异常检测:问题定义难、数据匮乏,算法设计难度高

交通事故的异常检测在安全城市中扮演着非常关键的角色,交通的异常状况会大大降低交通通行效率,因此需要对其进行检测和监控,如果发生异常就进行报警和救援,尽快排出由事件带来的交通不便,恢复正常的交通。

传统的的交通异常检测方法,主要有电磁感应环形线圈式和波式,它们均是基于车辆经过时利用反射波的频率变化来检测车辆信息。但使用“磁”与“波”检测的方法均不能提供全面的交通信息,因此有很大的局限性。

基于视频的交通异常检测,是应用摄像机等视觉传感器和以计算机视觉理论为基础,依靠交通流动的信息(比如光流)和跟踪单个车辆去检测异常,比如用物体跟踪的方法去识别异常的行为[3]。

但是,获取的车辆轨迹由于遮挡问题通常包含一定的噪音。为了克服这个问题,一些学者尝试利用视频中 low-level 的特征去提出一种基于概率模型的异常检测框架进行判断[4][5]。

实际场景中的交通异常行为存在定义困难,无法获取异常的先验的信息,同时存在摄像机视角的变化,高密度车流,目标遮挡,天气情况(比如下雪天气),光照的变化(比如白天和黑夜),采集数据分辨率低和真实场景数据匮乏等因素的影响,设计一套鲁棒性强的异常检测系统面临着巨大的挑战。

冠军技术分享:首创双模态动静联合检测方法

任务2 的视频是以各种视角、在不同天气和道路状况下记录下的真实交通视频。 这些问题让设计异常检测的方法变得十分困难。因此,大多数成功的方法都基于交通运动流分析(例如,使用光流),而不是试图检测和跟踪各个车辆。

冠军团队提出的方案叫做“双模型车辆动态学习”(Dual-Mode Vehicle Motion Pattern Learning)[1]。比赛负责人、论文第一作者徐炎向新智元介绍,在交通异常检测的任务中,他们是首次提出以双模态动静态联合检测的方法去解决这个问题。

“我们充分挖掘了交通异常检测的特性,即异常车辆的速度有明显的变化和车辆会被迫停止。基于这两个特性,我们分别提出了动静态两种模态进行分析。”

动态方案的结果。上图显示了正常时的速度,下图则是发生异常的情况。在下排右边的图表中,可以看见一辆车的速度与其他不同,最后停下来。

“在动态方案中,我们首先对行驶车辆进行检测,基于可靠光流信息对各个车辆进行追踪。同时,我们设计了一种简单有效的基于近邻规则的噪点去除方法,去解决跟踪过程中车辆的遮挡问题。获取得到比较鲁棒的车辆轨迹后,通过计算不同车辆的相对速度大小及其变化趋势,我们可以很精准的找到异常车辆。

“在静态方案中,我们首先对视频进行背景建模,提取背景图片。同时,异常的车辆也会被保留在背景图片中。我们训练了一个只包含背景和车辆二分类器,有效地去除背景图片进行车辆检测过程中出现的 false positive 结果。

分享给小伙伴们:
本文标签:

更多文章

相关文章

  • 蛮便宜网
  • 天猫内部优惠券网
  • Copyright © 2002-2011 版权所有