未来人类将被AI取代?

如果说有一项技术彻底改变了 21 世纪,那一定是人工智能。Google 新掌门人 Sundar Pichai 曾说:“人工智能带给我们生活和工作的改变,甚至将超过火和电。”虽然噱头满满,但不可否认的是,人工智能正在翻天覆地的改变着人们的生活方式。以前只有在科幻小说中才能了解到的工具和生活方式正在人工智能的加持下,从各个角度渗透进我们的日常生活,并带动着技术进步、产业升级、推动市场经济整体快速发展。因此,正确理解人工智能的概念就变得非常重要。本文将帮助你理解人工智能的定义、阶段、类型以及研究领域。

人工智能的定义

1956 年,John McCarthy(1927~2011)在达特茅斯会议上提出了“人工智能 (artificial intelligence,AI)”一词。他将人工智能定义为:

“制造智能机器的科学与工程。”

‘The science and engineering of making intelligent machines.’

人工智能也可定义为能够执行需要人类智能的任务的计算机系统的开发,如制定决策、检测对象、解决复杂问题等等。

 

 

人工智能的阶段

很多文章都认为,强人工智能(Artificial General Intelligence)、弱人工智能(Artificial Narrow Intelligence)以及超人工智能(Artificial Super Intelligence)是不同类型的人工智能。其实更确切地说,它们是人工智能的三个阶段。

弱人工智能(ANI)

弱人工智能,又称为狭义人工智能。在这一阶段,机器并不具备任何思维能力,只是执行一组预定义的功能,如语音识别、图像识别等,是擅长单个方面的人工智能,类似高级仿生学。它们只为解决某一特定具体的任务而存在,大多是统计数据,从中归纳出模型。比如, AlphaGo 只会下围棋,并不能执行其他任务。

 

 

弱人工智能的例子包括 Siri、Alexa、自动驾驶汽车、AlphaGo、人形机器人 Sophia 等。到目前为止,几乎所有基于人工智能的系统都属于弱人工智能。

强人工智能(AGI)

强人工智能,又称为通用人工智能。不同于弱人工智能,强人工智能可以像人类一样应对不同层面的问题,而不仅仅只是执行一组预定义的功能。不仅如此,强人工智能还具有自我学习、理解复杂理念等多种能力。也正如此,强人工智能的开发比弱人工智能要困难得多。事实上,人工智能国际主流学界所持的目标也仅局限于弱人工智能。目前很少有人进行强人工智能的研究,也尚未形成相应的成果。

 

 

强人工智能还被许多科学家视为对人类生存的威胁, Stephen Hawking 警告称:

“完全人工智能(Full Artificial Intelligence)的发展可能意味着人类文明的终结……人工智能一旦脱离束缚,会不断加速重新设计自身。而人类由于受到生物进化的时间限制,无法与之竞争,很可能会被取代。”

超人工智能(ASI)

当弱人工智能已经大部分实现,强人工智能正在通过深度学习不断逼近之时,超人工智能的概念呼之欲出。在这一阶段,计算机的能力将超越人类。目前,强人工能智能是电影和科幻小说中描述的一种假想情景:机器已经接管世界。

 

 

“人工智能(我指的不是狭义的人工智能)的发展速度快得令人难以置信。除非你能够直接接触到 DeepMind 这样的组织,否则你根本不会知道人工智能的增长速度有多快——它正以接近指数级的速度增长。在五年内(最多十年)将存在发生危险事件的风险。"

——Elon Musk

人工智能的类型

当有人让你解释不同类型的人工智能系统时,你必须根据它们的功能进行分类。密歇根州立大学 Arend Hintze 将人工智能分为以下几种类型:单一反应型、有限记忆型、具有心智型以及自我意识型。

单一反应型(Reactive Machine AI)

这种类型的人工智能是最基本的人工智能系统,它仅基于当前数据运行的机器,只考虑当前情况。也就是说,反应型机器只能进行反应,它既没有记忆能力,也无法利用过去的经验来制定现在的决策。

 

 

反应型机器的一个典型例子就是著名的 IBM 国际象棋程序 Deep Blue 。1997 年 5 月,它以 3.5:2.5 的战绩击败了世界冠军 Garry Kasparov,成为首个在标准比赛时限内击败国际象棋世界冠军的计算机系统。

Deep Blue 看似拥有人的智慧,实际上,它只关注棋盘上的现状,并在可能的走法中作出决策。除了遵守重复棋局不能连续出现三次的规定外,和经验丰富的人类不同,它对过去并没有任何概念。

目前的人工智能,要么对世界没有概念,要么只对其执行的特定任务有极其有限、具体的概念。Deep Blue 的创新之处在于,它放弃了拓宽计算机可能考虑的棋路范围的这种思路。相反,开发人员找到了一种方法,让它缩小自己的“视角”,根据它对某些走法的结果进行评估,停止追求一些可能的走法。类似地,AlphaGo 也无法评估所有的走法,但它采用了比 Deep Blue 更为复杂的方法:使用神经网络来评估棋局的走势。

这种类型的人工智能无法在专业领域之外发挥作用,而且容易被愚弄。它们无法通过交互的方式成为世界的组成部分。很显然,它们只是最基本的人工智能系统,并不符合我们对人工智能系统的未来预期,即能够与人类展开真正的互动,甚至对周围的环境作出真实的反应。

有限记忆型(Limited Memory AI)

有限的记忆,顾名思义,指人工智能可以通过研究以往的数据作出明智的决策。这种类型的人工智能具有短暂或临时的记忆,可以用来存储过去的经验并评估未来的行为。

 

 

自动驾驶汽车就是这种类型的人工智能,它利用最近收集的数据作出即时决定。例如,使用传感器识别过马路的行人、陡峭的道路以及交通信号等,从而作出更好的驾驶决策,这有助于防止交通事故的发生。

然而,自动驾驶汽车的历史信息存在的时间很短暂,无法像经验丰富的人类驾驶员那样将其存储在“经验库”中。这种类型的人工智能,并不能构建全面的“表现”(representations),它并不能记住自己的经验,并学会如何应对新的情况。

具有心智型(Theory Of Mind AI)

心智理论,心理学术语,是人类能够理解自身及周围人的心理状态的能力。这一理论来源于哲学,进入心理学领域后,慢慢成为认知心理学与神经心理学的研究重心之一。心智理论是人类社会形成的关键,通过这一理论,人们可以更好地理解社交、互动的内在动力。试想,如果人类不能理解彼此的动机和意图,那么,相互间的沟通、合作就会变得异常困难,甚至毫无可能。

 

 

这种类型的人工智能较前两种更为先进,它在心理学中扮演着重要的角色,主要体现在对机器“情商”的开发上。

如果人工智能系统真的能够与人类并肩行走,它们就必须能够明白,每个人都有思想和感受,理解人类预期,并由此调整自身行为,这正是我们目前的人工智能与未来的人工智能之间的重要差异。

自我意识型(Self-aware AI)

这是人工智能发展的最后一步:构建一套能够形成自我表征的系统。像 Elon Musk 和 Stephen Hawkings 这样的天才一直警告我们警惕人工智能的进化。让我们祈祷,我们永远不会达到这种人工智能的状态。因为,在这种状态下,机器将拥有自己的意识,它能够意识到自我,知道自己的内部状态,还可以预测他人的感受。当前,具有自我意识的人工智能离我们还有很远的距离。然而在未来,到达超人工智能的阶段仍存在可能。

 

 

人工智能的研究领域

人工智能可以通过以下技术解决现实问题:

机器学习
深度学习
自然语言处理
机器人
模糊逻辑
专家系统

 

 

机器学习

机器学习是一门借助机器解释、处理和分析数据以解决实际问题的科学。它的根源可以追溯到 1952 年就职于 IBM 的 Arthur Samuel(被誉为“机器学习之父”)设计的一款西洋跳棋程序。机器学习有三种类型,分别为监督式学习、无监督式学习和强化学习。

毫无疑问,机器学习有助于人类克服知识和常识方面的瓶颈,而我们认为这些瓶颈会阻碍人类水平的人工智能的发展,因此许多人将机器学习视为人工智能的梦想。

想了解有关机器学习的更多信息,你可以浏览以下博客:

Machine Learning Tutorial for Beginners

What is Machine Learning? Machine Learning For Beginners

深度学习

深度学习是在高维数据上实现神经网络以获得洞察力并形成解决方案的过程。深度学习是机器学习的一个高级领域,可以用于解决更高级的问题,它是 Facebook、自动驾驶汽车、Siri、ALexa 等虚拟助手人脸认证算法背后的逻辑。

想了解有关深度学习的更多信息,你可以浏览以下博客:

What is Deep Learning? Getting Started With Deep Learning

Deep Learning Tutorial: Artificial Intelligence Using Deep Learning

自然语言处理

自然语言处理是一门从人类自然语言中提取洞察力,以便与机器交流并发展业务的科学。它也是人工智能中最古老、研究最多、要求最高的领域之一。开发智能系统的任何尝试,最终似乎都要解决一个问题,即使用何种形式的标准进行交流。例如,比起使用图形系统或基于数据系统的交流,语言交流通常是首选。

20 世纪四五十年代,人们使用有限自动机、形式语法和概率建立了自然语言理解的基础。但是,20 世纪五六十年代,早期使用机器翻译语言的尝试被实践证明是徒劳无功的。20 世纪 70 年代,当时的潮流趋于使用符号方法和随机方法。进入 21 世纪后,随着机器学习的兴起,自然语言处理迎来新的突破,并推动了随机过程、机器学习、信息提取和问答等现有方法的应用。比如,Twitter 使用自然语言处理技术来过滤推文中的恐怖主义的语言,Amazon 使用自然语言处理了解客户评论并改善用户体验。

机器人

人工智能机器人是在现实环境中行动的人工智能体,通过采取负责任的行动来产生结果。这一领域在计

推荐文章

来自工业界的最佳实践。车牌识别是一个老生常谈的话题,在工业界已经得到广泛应用。当深度学习在各种视觉识别任务上刷新更高精度的时候,却常常被认为计算量远大于传统方法。Intel公司俄罗斯IOTG计算机视觉组的工程师最近发布了一篇论文,揭示了自家已经商用的车牌识别算法,使用轻量级深度神经网络进行车牌识别,达到快准狠的新高度,即速度超快、精度超准、硬件利用率超狠。本文来自于论文《LPRNet: License Plate Recognition via Deep Neural Networks》。文章的的第一作者已经离开Intel,这篇论文是他们17年的工作,通过Linkedin得知,两位作者来自Intel收购的Itseez公司,也就是之前维护OpenCV的俄罗斯公司。该文提出了LPRNet – 自动车牌识别的end-to-end方法,识别之前无需进行初步的字符分割。该方法使用了深度神经网络,能够实时运算,在中国车牌识别准确度上高达95%,速度上在nVIDIA GeForce GTX 1080显卡运算每个车牌3ms,在英特尔酷睿i7-6700K上每个车牌1.3ms。LPRNet由轻量级卷积神经网络组成,因此可以端到端的方式进行训练。论文称,LPRNet是第一个不使用RNN的实时车牌识别系统。因为速度快,LPRNet算法可用于自动车牌识别的嵌入式解决方案,即使在具有挑战性的中国车牌上也具有高精度。需要说明的是,LPRNet解决的是识别的问题,文中车牌检测使用的是LBP-cascade。LPRNet特性1.实时、高精度、支持车牌字符变长、无需字符分割、对不同国家支持从零开始end-to-end的训练;2.第一个不需要使用RNN的足够轻量级的网络,可以运行在各种平台,包括嵌入式设备;3.鲁棒,LPRNet已经应用于真实的交通监控场景,事实证明它可以鲁棒地应对各种困难情况,包括透视变换、镜头畸变带来的成像失真、强光、视点变换等。车牌识别的挑战图像模糊、很差的光线条件、车牌数字的变化(比如中国和日本的车牌有一些特殊字符)、车牌变形、天气影响(比如雨雪天气)、车牌上的字符个数有变化。空间变换预处理LocNet这是对检测到的车牌形状上的校正,使用 Spatial Transformer Layer[1],这一步是可选的,但用上可以使得图像更好得被识别。LPRNet的基础构建模块LPRNet的基础网络构建模块受启发于SqueezeNet Fire Blocks[2]和Inception Blocks[3],如下图所示。特征提取骨干网架构骨干网将原始的RGB图像作为输入,计算得到空间分布的丰富特征。为了利用局部字符的上下文信息,该文使用了宽卷积(1×13 kernel)而没有使用LSTM-based RNN。骨干网络最终的输出,可以被认为是一系列字符的概率,其长度对应于输入图像像素宽度。由于解码器的输出与目标字符序列长度不同,训练的时候使用了CTC Loss[4],它可以很好的应对不需要字符分割和对齐的end-to-end训练。为了进一步提高性能,使用了论文[5]中global context嵌入。推理阶段对上述一系列字符的概率进行解码,使用beam search[6],它可以最大化输出序列的总概率。后过滤(post-filtering)阶段,使用面向任务的语言模型实现作为目标国家车牌模板的一组集合,后过滤阶段是和beam search 结合一起用的,获得通过beam search找到的前N个最可能序列,返回与预定义模板集合最匹配的第一个序列,该模板取决于特定国家的车牌规则。识别实验结果训练时,使用一个来自监控场景的中国车牌的私有库,总共有11696幅经过LBP级联检测器检测出来的车牌,并进行了数据增广(data augmentation)即随机旋转、平移、缩放,下图报告了上述各种tricks对识别精度的影响。最大的识别精度增益来自于global context(36%),其次是data augmentation(28.6%),STN-based alignment即预处理也带来了显著提高(2.8-5.2%),Beam Search联合post-filtering进一步提高了0.4-0.6%.识别速度Intel将LPRNet在CPUGPUFPGA上都进行了实现,每个车牌的识别时间如下:这里GPU用的是nVIDIA GeForce1080, CPU是Core i7-6700K SkyLake, FPGA是Intel Arria10,推断引擎IE来自Intel OpenVINO.虽然这篇文章本身没有什么新的发明,但52CV还是认为非常值得推荐给大家的,它绝不属于水文,因为Intel已经将其商用了,足以证明它的优势和价值。该文没有开源代码,论文地址:https://arxiv.org/abs/1806.10447v1在“我爱计算机视觉”公众号后台回复“lprnet”可以直接获取论文的百度网盘下载地址。参考文献[1]“Spatial Transformer Networks,”arXiv:1506.02025[2]“SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5mb model size,”arXiv:1602.07360[3]“Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,” arXiv:1602.07261[4]Connectionist temporal classification:labelling unsegmented sequence data with recurrent neural networks. ICML 2006:369-376[5]“ParseNet: Looking Wider to See Better,” arXiv:1506.04579[6]Supervised Sequence Labelling with Recurrent Neural Networks, 2012th ed. Heidelberg ; New York:Springer, Feb. 2012.转载来源:《快准狠!Intel论文揭示自家车牌识别算法:LPRNet》

热门文章

        对数据标注行业稍微有些了解的人都知道数据标注进入门槛低,适合很多人兼职也适合创业。        正是因为数据标注行业的门槛低这个特点最近两年从事数据标注的小公司小工作室如雨后春笋般的遍布全车大大小小的县城。        但是目前有个有趣的现象,那就是有很多进入数据标注行业做了一段时间的人慢慢的感觉数据标注行业就是个坑?为什么有些人会说数据标注就是个坑呢?        其实对与有上述问题认识的人我们认为,这些人多数都是有于对这个行业对自身条件的不了解,盲目的开始进入数据标注行业的。为什么我们会这样说呢?下面就给给大家来分析下到底有哪几方面的原因:        一、有相当一部分人是听了朋友或者网上消息说这行很火爆,好做,门槛低,也有一部分人了因此租办公室买电脑招人,然后就去群里面找分发项目的人就开张干起来了。可实际上这些人他们大多数都没有充分了解数据标注行业,更没有认真仔细得去调查分析,到底自己能不能做好一个项目,到底自己能不能有质有量按时交付的完成一个项目,到底自己有没有这个能力来管理项目。更多的人也没有去用长远的眼光去考虑数据标注项目。        二、数据标注项目虽然入门门槛低,但是相当一部分有于理解认知应变能力上都不能保证去做好数据标注项目,还有一部分人由于自己对标注项目重视程度不足接到项目之后呢?不仔细认真的去阅读理解项目规则,更没有很好的对规则质检标准去培训员工,而对员工的要求主要看重每天的产出效率,从而导致接到手的项目做的质量很差,频繁的返工,有提项目甚至因为质量太烂项目方不给结算或者是结算比例很少,最终的结果就是做好些个项目但基本都是赔钱。        三、虽然业内人都 说数据标注简单,但是标注项目他也是一个系统性的工程,一个项目能不能做好并不简单的看项目好做就能赔钱。实际上决定项目赚不赚钱考验的是一个团队的项目管理水平,质量管理能力,运营能力各方面因素的。一句话再好赚钱的项目也照样有人赚钱也有人赚钱,要赚钱不是那么简单的。        四、还有些工作室 、小公司因为对行业不够了解等他们做了一段时间后发现,自己团队经常会没有项目做,而自己团队接项目的业务能力又不具备,甚至有的时候为了员工有活干去接一些价格极低根本就不赚钱的标注项目,时间稍微一长这些工作室团队就会赔上很多钱最终关门倒闭。        五、下来要说的就是一部分人人兼职人员由于认识不到位,对项目的规则质量要求 文件不认真阅读消化理解导致做的项目质量差返工有的甚至最后不结算,最终退出这行。更有一些人由于经验不足被标注行业的项目骗子给忽悠到辛苦劳动到最后结算时找不到人。        标注行业本身由于进入门槛低,做的人很行业内盲目打价格战,导致很多转手二手三手的项目在质量工期的要求下根本就不赚钱甚至赔钱,所以在这里也提醒大家做任何事都要谨慎而行。