继无人超市之后,这里也实现了无人化操作

今年人工智能成为了最火的行业之一,技术的不断发展,让人工智能不仅仅停留在研究人员的电脑上,更是实实在在的改变着我们的生活。

 

在电影中,我们经常看到劫匪带着面罩,举着枪抢银行的画面,其中有不计后果的亡命之徒,只为报复社会,有些自以为聪明绝顶,缺难逃法网,还有些也可能是这样年过花甲的老人?不论哪一部电影,套路基本一致,“趴在地上!不许动!”然后柜员瑟瑟发抖的把钱装进袋子。导演们似乎已经约定俗成,所有的抢银行都是这个套路,毫无创新。不过,看了今天这篇文章,可能导演和编剧们的后路也断了。

 

当劫匪经过艰难的思想斗争,演练了无数遍,背了n遍台词,闷了一大口酒之后,终于鼓起勇气,举起枪,冲进银行。闭着眼睛大喊:“不许动!我是抢银行的!都给我趴下!你!快给我装钱,所有都装进袋子里!”一阵冷风吹过,没有回应……劫匪慢慢睁开眼,发现银行里竟然一个人都没有?柜员呢?顾客呢?没人来取钱,那还能没有工作人员?这是撞了鬼??“欢迎来到自助无人银行,我是智能柜员机器人。”WTF?劫匪内心崩溃,这是什么命啊!抢银行竟然抢到了无人银行,笨贼也要有梦想啊。

 

 07122926.png

以后电影里可能就得更新一下抢银行的桥段了,无人银行已经不再是想象出来的未来科技。现在,人工智能已经开始走进银行业,无人银行应运而生,中国建设银行宣布,第一家无人银行在上海开张。该银行采用智能银行系统,是一个综合智能大堂机器人、VTM机、零钱兑换机、智能投顾的综合服务系统,真正实现了无人化业务办理。顾客需要通过人脸扫描识别,通过人脸合验的才能进入银行;智能大堂机器人可以通过语音识别和语音交互,为顾客提供服务向导,使其方便快捷的了解所办业务的流程;VTM机是远程视频柜员机,在遇到智能系统无法解决的问题时,可以选择通过远程人工协助来完成业务办理;零钱兑换机则同自助取款机大同小异,帮助顾客完成零钱兑换业务;而智能投顾则是通过算法分析,依据顾客的个人理财需求,为顾客提供科学合理的理财组合。

 


整个无人银行,真正实现了智能化、无人化,具备保证高效办理业务、节约人工成本、提高银行资金安全等众多优势。实现无人银行的基础除了算法保证外,就是人脸识别、语音交互等技术,需要海量的人脸图片数据,支持人脸识别,有效的识别是否为本人操作;对于语音交互方面,需要采集各种方言、年龄、性别的各类语音数据,才能实现准确的语音交互功能,这也是整个无人银行系统的关键所在。

 22900.png


龙猫数据正是为人工智能提供各类图片数据、语音数据、视频数据的专业数据服务商,通过海量的精准数据,为人工智能提供更加科学的学习模板,让人工智能更加聪明。



推荐文章

谷歌发布迄今最大注释图像数据集,190万图像目标检测挑战赛启动
【新智元导读】今天,谷歌宣布开放Open Images V4数据集,包含190万张图片,共计600个类别,共标记了1540万个边界框,这是迄今的有对象位置注释的最大数据集。基于此数据集,谷歌将在ECCV 2018举办大型图像挑战赛。2016年,谷歌推出一个包含900万张图片的联合发布数据库:Open Images,其中标注了成千上万个对象类别。从它发布以来,谷歌的工程师一直在努力更新和重新整理数据集,以为计算机视觉研究领域提供有用的资源来开发新的模型。今天,谷歌宣布开放Open Images V4,其中包含190万张图片,共计600个类别,共标记了1540万个边界框。这个数据集成为现有的带有对象位置注释的最大数据集。这些边界框大部分是由专业的注释人员手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有几个对象的复杂场景(平均每个图像包含8个边界框)。谷歌发起大型开放图像挑战赛与此同时,谷歌还推出Open Image Challenge(开放图像挑战赛),这是一项新的目标检测挑战,将在2018年欧洲计算机视觉会议(ECCV 2018)上举行。Open Image Challenge遵循了PASCAL VOC、ImageNet和COCO的传统,但规模空前:在170万张训练图片中,有1220万个有框注释,共500个类别。比以前的检测挑战更广泛,包括诸如“fedora”和“snowman”之类的新对象。除了对象检测这个任务之外,挑战还包括一个视觉关系检测跟踪人物,即在特定关系中检测对象的配对情况,例如“女人弹吉他”。训练集现在已经可以使用了。一组包含10万个图像的测试集将于2018年7月1日由Kaggle发布。提交结果的截止日期是2018年9月1日。我们希望这些大型的训练集能够激发对更精密的探测模型的研究,这些模型将超过目前最先进的性能,并且500个类别将能够更精确地评估不同的探测器在哪里表现得最好。此外,有大量的图像和许多对象的注释使我们能够探索视觉关系检测,这是一个正在发展的分支领域的热门话题。除此之外,Open Images V4还包含3010万的人工验证的图像级标签,共计19794个类别,这并不是挑战的一部分。该数据集包括550万个图像级标签,由来自世界各地的成千上万的用户在crowdsource.google.com上生成。Open Images V4数据集Open Images是一个由900万张图片组成的数据集,这些图像被标注为图像级标签和对象边界框。V4的训练集包含了600对象类的1460万个图像,其中共标记了174万个标记目标,这使得它成为现有的最大包含对象位置注释的数据集。这些物体的边界框大部分是由专业的注释器手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有多个对象的复杂场景(平均每个图像有8.4个标记)。此外,数据集还带有数千个类的图像级标签。数据组织结构数据集被分割为一个训练集(9,011,219图像),一个验证集(41620个图像)和一个测试集(125,436张图片)。这些图像被标注了图像级标签和边界框,如下所述。表1表1显示了数据集的所有子集中的图像级标签的概述。所有的图像都有机器生成的图像级标签,这些标签是由类似于Google Cloud Vision API的计算机视觉模型自动生成的。这些自动生成的标签有一个很大的假正率。此外,验证和测试集,以及部分训练集都包含经过人工验证的图像级标签。大多数验证都是由Google内部的注释者完成的。更小的部分是通过图片标签软件来完成的,如Crowdsource app, g.co/imagelabeler。这个验证过程实际上消除了假阳性(但不是传统意义上的假阴性,这种方式会导致一些标签可能在图像中丢失)。由此产生的标签在很大程度上是正确的,我们建议使用这些标签来训练计算机视觉模型。使用多个计算机视觉模型来生成样本,这样做是保证在训练时不仅仅用机器生成的标签数据,这就是为什么词汇表被显著扩展的原因,如表一所示。总的来说,有19995个不同的类和图像级标签。请注意,这个数字略高于上表中人工验证的标签的数量。原因是在机器生成的数据集中有少量的标签并没有出现在人工验证的集合中。可训练的类是那些在V4训练集中至少有100个正例的人工验证类。基于这个定义,7186个类被认为是可训练的。边界框表2表2显示了数据集的所有分割中边界框注释的概述,它包含了600个对象类。这些服务提供的范围比ILSVRC和COCO探测挑战的范围更广,包括诸如“fedora”和“snowman”之类的新对象。 对于训练集,我们在174 万的图像中标注了方框,用于可用的阳性人工标记的图像级标签。我们关注最具体的标签。例如,如果一个图像包含汽车、豪华轿车、螺丝刀,我们为豪华轿车和螺丝刀提供带注释的标注方框。对于图像中的每一个标签,我们详尽地注释了图像中的对象类的每个实例。数据集共包含1460万个的边界框。平均每个图像有8.4个标记对象。对于验证和测试集,针对所有可用的正图像级标签,我们提供了所有对象实例详尽的边界框注释。所有的边界框都是手工绘制的。我们有意地尝试在语义层次结构中尽可能详尽地标注注释框。平均来说,在验证和测试集中,每个图像标记了5个边界框。在所有的子集中,包括训练集、验证集和测试集中,注释器还为每个边界框标记了一组属性,例如指出该对象是否被遮挡。类定义(Class definitions)类别由MIDs(机器生成的id)标识,可以在Freebase或Google知识图的API中找到。每个类的简短描述都可以在类中CSV中找到。统计和数据分析600个可标记类的层次结构本文来自新浪网

热门文章

简单讲:互联网数据标注员是借助电脑或者移动设备对一些原始的数据进行处理,生产出满足AI公司机器学习需要数据的一群人。按照数据处理对象的不同,工作内容也会有差别,标注员的工作内容可以分为:分类;框选;注释;标记。按照所处公司的不同,标注员的工作方式也会有差别:有的人工智能公司处于对数据安全性考虑会自建标注团队,在这些公司工作的标注员可以保证自己工作内容不会出现太大变动;但一些服务于人工智能公司非专业外包公司标注员的工作则是项目制的,一个项目忙完紧接着做另一个项目,这样工作内容连续性较差,对一种类型的项目经验也不会积累的太多。就目前来说,人工智能还处于人工增长阶段,机器依然需要大量的数据进行训练,测试。标注员在当下也会一直存在,而且从业群体会越来越多,所以暂时不用担心这份职业会不会短期消失。就标注员从业来说,建议选择人工智能公司和专业的数据公司,这样可以保证自己在一个方向上了解的足够深入。就职场晋升来说,以牛牛数据为例:标注员——项目经理——项目总监——数据运营总监。首先谈谈什么是数据标注。数据标注有许多类型,如分类、画框、注释、标记等等,我们会在下面详谈。要理解数据标注,得先理解AI其实是部分替代人的认知功能。回想一下我们是如何学习的,例如我们学习认识苹果,那么就需要有人拿着一个苹果到你面前告诉你,这是一个苹果。然后以后你遇到了苹果,你才知道这玩意儿叫做“苹果”。类比机器学习,我们要教他认识一个苹果,你直接给它一张苹果的图片,它是完全不知道这是个啥玩意的。我们得先有苹果的图片,上面标注着“苹果”两个字,然后机器通过学习了大量的图片中的特征,这时候再给机器任意一张苹果的图片,它就能认出来了。这边可以顺带提一下训练集和测试集的概念。训练集和测试集都是标注过的数据,还是以苹果为例子,假设我们有1000张标注着“苹果”的图片,那么我们可以拿900涨作为训练集,100张作为测试集。机器从900张苹果的图片中学习得到一个模型,然后我们将剩下的100张机器没有见过的图片去给它识别,然后我们就能够得到这个模型的准确率了。想想我们上学的时候,考试的内容总是不会和我们平时的作业一样,也只有这样才能测试出学习的真正效果,这样就不难理解为什么要划分一个测试集了。我们知道机器学习分为有监督学习和无监督学习。无监督学习的效果是不可控的,常常是被用来做探索性的实验。而在实际产品应用中,通常使用的是有监督学习。有监督的机器学习就需要有标注的数据来作为先验经验。在进行数据标注之前,我们首先要对数据进行清洗,得到符合我们要求的数据。数据的清洗包括去除无效的数据、整理成规整的格式等等。具体的数据要求可以和算法人员确认。二、常见的几种数据标注类型1.分类标注:分类标注,就是我们常见的打标签。一般是从既定的标签中选择数据对应的标签,是封闭集合。如下图,一张图就可以有很多分类/标签:成人、女、黄种人、长发等。对于文字,可以标注主语、谓语、宾语,名词动词等。<img src="https://pic2.zhimg.com/50/v2-df93dc0a7e8a5fe387dc3774748b5f05_hd.jpg" data-caption="" data-size="normal" data-rawwidth="700" data-rawheight="400" class="origin_image zh-lightbox-thumb" width="700" data-original="https://pic2.zhimg.com/v2-df93dc0a7e8a5fe387dc3774748b5f05_r.jpg">适用:文本、图像、语音、视频应用:脸龄识别,情绪识别,性别识别2.标框标注:机器视觉中的标框标注,很容易理解,就是框选要检测的对象。如人脸识别,首先要先把人脸的位置确定下来。行人识别,如下图。<img src="https://pic2.zhimg.com/50/v2-7824903d6d840e2bb08d96b5c2fa5874_hd.jpg" data-caption="" data-size="normal" data-rawwidth="591" data-rawheight="398" class="origin_image zh-lightbox-thumb" width="591" data-original="https://pic2.zhimg.com/v2-7824903d6d840e2bb08d96b5c2fa5874_r.jpg">适用:图像应用:人脸识别,物品识别3.区域标注:相比于标框标注,区域标注要求更加精确。边缘可以是柔性的。如自动驾驶中的道路识别。<img src="https://pic3.zhimg.com/50/v2-4bc1dd2278182acf94fc426d7e6f2dc1_hd.jpg" data-caption="" data-size="normal" data-rawwidth="601" data-rawheight="377" class="origin_image zh-lightbox-thumb" width="601" data-original="https://pic3.zhimg.com/v2-4bc1dd2278182acf94fc426d7e6f2dc1_r.jpg">适用:图像应用:自动驾驶4.描点标注:一些对于特征要求细致的应用中常常需要描点标注。人脸识别、骨骼识别等。<img src="https://pic4.zhimg.com/50/v2-5e24f394516c75e45942c37ba0da85c0_hd.jpg" data-caption="" data-size="normal" data-rawwidth="583" data-rawheight="387" class="origin_image zh-lightbox-thumb" width="583" data-original="https://pic4.zhimg.com/v2-5e24f394516c75e45942c37ba0da85c0_r.jpg">适用:图像应用:人脸识别、骨骼识别5.其他标注:标注的类型除了上面几种常见,还有很多个性化的。根据不同的需求则需要不同的标注。如自动摘要,就需要标注文章的主要观点,这时候的标注严格上就不属于上面的任何一种了。(或则你把它归为分类也是可以的,只是标注主要观点就没有这么客观的标准,如果是标注苹果估计大多数人标注的结果都差不多。)三、有什么发展前途?数据标注员可以说是AI消灭了一部分工作又创造出来的一种工作。在未来AI发展良好的前提下,数据的缺口一定是巨大的。可以预见3-5年内数据标注员的需求会一直存在。至于发展,其实所谓一些熟能生巧的工作,都是有被替代掉的风险的。深度学习解决的一件事情就是熟能生巧。在这个岗位上,其实你的一些想法就代表了AI的想法,AI会根据你标注的数据进行学习,想想还是有点成就感的。数据标注可以说是AI的入门级岗位,未来可转向其他AI岗位。如项目实施顾问等,这就要求更多的工作技能,需要再工作中积累。作者:跹尘链接:https://www.zhihu.com/question/30654399/answer/264828926来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。