联系
我们
投稿
反馈
评论 返回
顶部

内容字号: 默认 大号超大号

段落设置: 段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

【海通计算机】(深度)人工智能的最核心

2017-08-23 11:58 出处:互联网 人气: 评论(
千姿百态的意思 枪手传奇王牌后卫 呛口的小辣椒家境 强心脏101026中字 强心脏120828中字 乔石维基百科 切糕歌 秦都团 勤冶堂 青春cup哪集h

【海通计算机】(深度)人工智能的最核心——场景为王

2017-08-21 18:59 来源:宏达说 人工智能 /医药

原标题:【海通计算机】(深度)人工智能的最核心——场景为王

投资要点

算法和计算力瓶颈已突破,数据为关键。随着CNN、RNN等算法成熟和GPU对计算能力的提高,现今人工智能所需要面临的是如何使应用深化,从而对产业发起变革。因此,在算法、计算力、数据三个要素中,大量的数据,特别是场景化、标签化的数据获得成为重中之重。能否获得场景化的数据,不仅可决定人工智能在行业中的效用力,同样也是将人工智能切实落地,证实其并非资本市场泡沫的根本。

人工智能下一阶段驱动力,超大场景化数据集。人工智能发展进入了数据推动人工智能更新迭代的阶段。一方面,强人工智能和通用智能在目前还未成熟,特定场景下的垂直型人工智能深化应用成为方向;另一方面,随着人工智能进入移动互联网时代,由于各类型的终端设备的使用,各个行业数据都呈现指数级的增长,从图像、声音、视频到位置、轨迹、动作等,多维度场景化的数据分布使垂直化人工智能开发成为可能。从技术角度来看,大规模情景标签数据集的可用性可以使模型性能不断优化,Google Brain的Jeff Dean在论文中说明,即使在300倍ImageNet规模的数据集下,计算机视觉模型的性能仍没有遭遇平台;从应用角度来看,场景化的数据对于垂直领域的人工智能开发应用更具有实用性,完整性和准确性,在此驱动下真正实现商业化落地的可能性更高。

人工智能的投资奥义——场景为王。评估一个人工智能公司,能否获得场景数据最重要,没有场景的纯算法公司没有价值。以对于人工智能有天然应用场景的安防为例,在深度学习、计算机视觉算法开源化的大趋势下,具有特征性的场景数据集的获得,是对安防行业人工智能视频分析技术真正落地应用的关键。以海康威视和大华股份为代表的龙头企业,占据智能安防监控入口优势,其早已不再是单纯的硬件公司,而是软件、场景和数据公司。

投资建议。建议关注的行业相关标的,智能安防:海康威视、大华股份;汽车:四维图新、东软集团;金融:同花顺、恒生电子;医疗:思创医惠。

算法和计算力瓶颈已突破,数据为关键

1.1 场景化数据的获得,是当下人工智能发展之关键

1956年,美国达特茅斯大学会议标志着人工智能研究的正式诞生,推动了了全球第一次人工智能浪潮。但这一次人工智能的春天只持续了20年,原因是当时过于重视算法和方法论,而导致了人工智能在处理问题范围的局限性。

如今,人工智能研究的发展已经历了近六十年的沉浮,从硬件的计算能力、到深度学习算法、计算机视觉技术和自然语言处理等各领域都有了本质上的飞跃,人工智能已经从一个学术层面上的探索发展成一种可推动产业结构变革的新兴生产方式。结合资本市场和行业发展的角度,现今我们对人工智能的思考和展望更应回归投资的本源。

随着CNN、RNN等算法成熟和GPU对计算能力的提高,现今人工智能所需要面临的是如何使应用深化,从而对产业发起变革。因此,在算法、计算力、数据三个要素中,大量的数据,特别是场景化、标签化的数据获得成为重中之重。能否获得场景化的数据,不仅可决定人工智能在行业中的效用力,同样也是将人工智能切实落地,证实其并非资本市场泡沫的根本。

1.2 经历二次低谷,算法和计算力的瓶颈已突破

从人工智能的发展历史看,其一共经历了三次黄金发展期和两次低谷。从1956到1974年是人工智能发展的第一次黄金时期。这一阶段涌现出了大量人工智能的解决方案和未来研究方向。

然而1974到1980年,算法和计算能力的局限使人工智能迎来了第一次低谷。一方面,人工智能所基于的数学模型和数学手段被发现有一定的缺陷,逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对;另一方面,计算机的运算能力有限,而无意识的直觉和判断需要大量超预期的计算能力。算法和计算能力的局限使人工智能。

20世纪80年代,BP算法的突破使人工智能迎来了第二次繁荣。人工智能数学模型方面在80年代出现了众多重大发明,其中包括著名的多层神经网络(1986)和BP反向传播算法(1986)等。此时“知识处理”成为了主流人工智能研究的焦点,卷积神经网络的全新方式学习和信息处理方法逐渐被应用于字符识别和语音识别软件,获得了商业上的成功。而随后,由于专家系统使用的Symbolics和Lisp等机器陈旧而难以维护,受硬件和资金限制,人工智能的低谷又一次来临。

从20世纪90年代年以来,摩尔定律让计算越来越强大,当更强大的计算能力被转移到人工智能研究后,显著提高了人工智能的研究效果。随着新的计算引擎,如GPU等开始应用于人工智能,计算力的问题逐渐解决,正式进入了第三次黄金发展期。

回顾人工智能的发展历史,第一次低谷遇到的瓶颈是对于认知算法的基础性障碍,而第二次低谷遇到的瓶颈是计算成本和数据成本问题。在漫长的六十年发展历程中,人工智能的两大必备条件——算法和计算力和成本的瓶颈已一一得到了突破,那么算法应用方向明晰(计算机视觉、语音交互、深度学习),新型计算架构已满足所需的计算力的背景下,场景化数据集的规模和质量,可能是下一个瓶颈,同样也是可实现人工智能飞跃的下一个突破点。

人工智能下一阶段驱动力,超大场景化数据集

人工智能发展进入了数据推动人工智能更新迭代的阶段。一方面,强人工智能和通用智能在目前还未成熟,特定场景下的垂直型人工智能深化应用成为方向;另一方面,一方面,随着人工智能进入移动互联网时代,由于各类型的终端设备的使用,各个行业数据都呈现指数级的增长,从图像、声音、视频到位置、轨迹、动作等,多维度场景化的数据分布使垂直化人工智能开发成为可能。

场景化下的数据集的驱动力。从技术角度来看,大规模情景标签数据集的可用性可以使模型性能不断优化,Google Brain的Jeff Dean在论文中说明,即使在300倍ImageNet规模的数据集下,计算机视觉模型的性能仍没有遭遇平台;从应用角度来看,场景化的数据对于垂直领域的人工智能开发应用更具有实用性,完整性和准确性,在此驱动下真正实现商业化落地的可能性更高。

2.1 算法非门槛:模型性能随训练数据呈线性增长

今年 3 月,谷歌大脑负责人 Jeff Dean 做了一场题为《通过大规模深度学习构建智能系统》的演讲。Jeff Dean 在演讲中提到,当前的做法是:

解决方案 = 机器学习(算法)+ 数据 + 计算力,

那么在计算力呈百倍的提高,模型深度和容量不断扩大的趋势下,未来有没有可能变为:

解决方案 = 数据 + 100 倍的计算力

分享给小伙伴们:
本文标签:

更多文章

相关文章

  • 蛮便宜网
  • 天猫内部优惠券网
  • Copyright © 2002-2011 版权所有