继无人超市之后,这里也实现了无人化操作

今年人工智能成为了最火的行业之一,技术的不断发展,让人工智能不仅仅停留在研究人员的电脑上,更是实实在在的改变着我们的生活。

 

在电影中,我们经常看到劫匪带着面罩,举着枪抢银行的画面,其中有不计后果的亡命之徒,只为报复社会,有些自以为聪明绝顶,缺难逃法网,还有些也可能是这样年过花甲的老人?不论哪一部电影,套路基本一致,“趴在地上!不许动!”然后柜员瑟瑟发抖的把钱装进袋子。导演们似乎已经约定俗成,所有的抢银行都是这个套路,毫无创新。不过,看了今天这篇文章,可能导演和编剧们的后路也断了。

 

当劫匪经过艰难的思想斗争,演练了无数遍,背了n遍台词,闷了一大口酒之后,终于鼓起勇气,举起枪,冲进银行。闭着眼睛大喊:“不许动!我是抢银行的!都给我趴下!你!快给我装钱,所有都装进袋子里!”一阵冷风吹过,没有回应……劫匪慢慢睁开眼,发现银行里竟然一个人都没有?柜员呢?顾客呢?没人来取钱,那还能没有工作人员?这是撞了鬼??“欢迎来到自助无人银行,我是智能柜员机器人。”WTF?劫匪内心崩溃,这是什么命啊!抢银行竟然抢到了无人银行,笨贼也要有梦想啊。

 

 07122926.png

以后电影里可能就得更新一下抢银行的桥段了,无人银行已经不再是想象出来的未来科技。现在,人工智能已经开始走进银行业,无人银行应运而生,中国建设银行宣布,第一家无人银行在上海开张。该银行采用智能银行系统,是一个综合智能大堂机器人、VTM机、零钱兑换机、智能投顾的综合服务系统,真正实现了无人化业务办理。顾客需要通过人脸扫描识别,通过人脸合验的才能进入银行;智能大堂机器人可以通过语音识别和语音交互,为顾客提供服务向导,使其方便快捷的了解所办业务的流程;VTM机是远程视频柜员机,在遇到智能系统无法解决的问题时,可以选择通过远程人工协助来完成业务办理;零钱兑换机则同自助取款机大同小异,帮助顾客完成零钱兑换业务;而智能投顾则是通过算法分析,依据顾客的个人理财需求,为顾客提供科学合理的理财组合。

 


整个无人银行,真正实现了智能化、无人化,具备保证高效办理业务、节约人工成本、提高银行资金安全等众多优势。实现无人银行的基础除了算法保证外,就是人脸识别、语音交互等技术,需要海量的人脸图片数据,支持人脸识别,有效的识别是否为本人操作;对于语音交互方面,需要采集各种方言、年龄、性别的各类语音数据,才能实现准确的语音交互功能,这也是整个无人银行系统的关键所在。

 22900.png


龙猫数据正是为人工智能提供各类图片数据、语音数据、视频数据的专业数据服务商,通过海量的精准数据,为人工智能提供更加科学的学习模板,让人工智能更加聪明。



推荐文章

谷歌发布迄今最大注释图像数据集,190万图像目标检测挑战赛启动
【新智元导读】今天,谷歌宣布开放Open Images V4数据集,包含190万张图片,共计600个类别,共标记了1540万个边界框,这是迄今的有对象位置注释的最大数据集。基于此数据集,谷歌将在ECCV 2018举办大型图像挑战赛。2016年,谷歌推出一个包含900万张图片的联合发布数据库:Open Images,其中标注了成千上万个对象类别。从它发布以来,谷歌的工程师一直在努力更新和重新整理数据集,以为计算机视觉研究领域提供有用的资源来开发新的模型。今天,谷歌宣布开放Open Images V4,其中包含190万张图片,共计600个类别,共标记了1540万个边界框。这个数据集成为现有的带有对象位置注释的最大数据集。这些边界框大部分是由专业的注释人员手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有几个对象的复杂场景(平均每个图像包含8个边界框)。谷歌发起大型开放图像挑战赛与此同时,谷歌还推出Open Image Challenge(开放图像挑战赛),这是一项新的目标检测挑战,将在2018年欧洲计算机视觉会议(ECCV 2018)上举行。Open Image Challenge遵循了PASCAL VOC、ImageNet和COCO的传统,但规模空前:在170万张训练图片中,有1220万个有框注释,共500个类别。比以前的检测挑战更广泛,包括诸如“fedora”和“snowman”之类的新对象。除了对象检测这个任务之外,挑战还包括一个视觉关系检测跟踪人物,即在特定关系中检测对象的配对情况,例如“女人弹吉他”。训练集现在已经可以使用了。一组包含10万个图像的测试集将于2018年7月1日由Kaggle发布。提交结果的截止日期是2018年9月1日。我们希望这些大型的训练集能够激发对更精密的探测模型的研究,这些模型将超过目前最先进的性能,并且500个类别将能够更精确地评估不同的探测器在哪里表现得最好。此外,有大量的图像和许多对象的注释使我们能够探索视觉关系检测,这是一个正在发展的分支领域的热门话题。除此之外,Open Images V4还包含3010万的人工验证的图像级标签,共计19794个类别,这并不是挑战的一部分。该数据集包括550万个图像级标签,由来自世界各地的成千上万的用户在crowdsource.google.com上生成。Open Images V4数据集Open Images是一个由900万张图片组成的数据集,这些图像被标注为图像级标签和对象边界框。V4的训练集包含了600对象类的1460万个图像,其中共标记了174万个标记目标,这使得它成为现有的最大包含对象位置注释的数据集。这些物体的边界框大部分是由专业的注释器手工绘制的,以确保准确性和一致性。这些图像非常多样,通常包含有多个对象的复杂场景(平均每个图像有8.4个标记)。此外,数据集还带有数千个类的图像级标签。数据组织结构数据集被分割为一个训练集(9,011,219图像),一个验证集(41620个图像)和一个测试集(125,436张图片)。这些图像被标注了图像级标签和边界框,如下所述。表1表1显示了数据集的所有子集中的图像级标签的概述。所有的图像都有机器生成的图像级标签,这些标签是由类似于Google Cloud Vision API的计算机视觉模型自动生成的。这些自动生成的标签有一个很大的假正率。此外,验证和测试集,以及部分训练集都包含经过人工验证的图像级标签。大多数验证都是由Google内部的注释者完成的。更小的部分是通过图片标签软件来完成的,如Crowdsource app, g.co/imagelabeler。这个验证过程实际上消除了假阳性(但不是传统意义上的假阴性,这种方式会导致一些标签可能在图像中丢失)。由此产生的标签在很大程度上是正确的,我们建议使用这些标签来训练计算机视觉模型。使用多个计算机视觉模型来生成样本,这样做是保证在训练时不仅仅用机器生成的标签数据,这就是为什么词汇表被显著扩展的原因,如表一所示。总的来说,有19995个不同的类和图像级标签。请注意,这个数字略高于上表中人工验证的标签的数量。原因是在机器生成的数据集中有少量的标签并没有出现在人工验证的集合中。可训练的类是那些在V4训练集中至少有100个正例的人工验证类。基于这个定义,7186个类被认为是可训练的。边界框表2表2显示了数据集的所有分割中边界框注释的概述,它包含了600个对象类。这些服务提供的范围比ILSVRC和COCO探测挑战的范围更广,包括诸如“fedora”和“snowman”之类的新对象。 对于训练集,我们在174 万的图像中标注了方框,用于可用的阳性人工标记的图像级标签。我们关注最具体的标签。例如,如果一个图像包含汽车、豪华轿车、螺丝刀,我们为豪华轿车和螺丝刀提供带注释的标注方框。对于图像中的每一个标签,我们详尽地注释了图像中的对象类的每个实例。数据集共包含1460万个的边界框。平均每个图像有8.4个标记对象。对于验证和测试集,针对所有可用的正图像级标签,我们提供了所有对象实例详尽的边界框注释。所有的边界框都是手工绘制的。我们有意地尝试在语义层次结构中尽可能详尽地标注注释框。平均来说,在验证和测试集中,每个图像标记了5个边界框。在所有的子集中,包括训练集、验证集和测试集中,注释器还为每个边界框标记了一组属性,例如指出该对象是否被遮挡。类定义(Class definitions)类别由MIDs(机器生成的id)标识,可以在Freebase或Google知识图的API中找到。每个类的简短描述都可以在类中CSV中找到。统计和数据分析600个可标记类的层次结构本文来自新浪网

热门文章

波士顿 - Neurala公司今天推出了一款新的视频标注工具,该工具由Brain Builder平台的人工智能辅助。“自动视频注释将显着加速神经网络的数据标注,从而帮助组织更快地培训和部署AI,”该公司表示。标记图像和视频对于开发用于建模和训练AI应用程序的数据集至关重要。Neurala  以软件即服务(SaaS)为基础提供Brain Builder,以帮助简化深度学习的创建,分析和管理。Neurala的联合创始人兼首席执行官Massimiliano Versace说:“人工智能数据准备的传统方法极其耗时且耗费人力,需要大量数据,需要经过精心和昂贵的注释。” “我们与Brain Builder的目标是通过易于使用的注释工具降低进入门槛。通过添加视频注释,我们能够进一步自动化数据准备,帮助组织将AI数据准备的时间和成本降低至少50%。“Neurala的专利和获奖技术源于2006年NASA,DARPA和空军研究实验室的神经网络研究。2013年,该公司加入了Techstars商业化计划。“每个人都想要AI,但他们不知道为什么,”Neurala的联合创始人兼首席运营官Heather Ames Versace说。“视频注释工具是终身AI技术堆栈的一部分,可提供透明度。”启用AI的注释可节省时间,提高工作效率当用户标记视频中的人物,物体或缺陷时,Neurala的新工具可以反复学习。Neurala表示,在用户在第一帧中标记感兴趣的项目后,该工具会自动在后续帧中注释相同的项目。例如,如果五个人输入一个框架,则在用户仅用一个人标记第一个框架后,它们将全部自动注释。相比之下,用户必须在他或她进入框架时标记每个人,这将花费更多的时间。此外,AI辅助视频注释可以提高标签处理速度并提高生产力,Heather Ames Versace告诉“ 机器人商业评论”。例如,用户可以注释10秒视频的一帧并获得300个注释的输出,而使用传统的注释方法,用户需要手动标记300个不同的图像才能获得相同的结果,Neurala说。“可解释性和信任始于数据,”Heather Ames Versace在最近的AI World大会上说。“通过在更短的时间内对数据进行注释和标记,团队可以进行更快速的原型设计。”用Brain Builder存钱“最终,它将帮助组织和开发人员更有效,更具成本效益地构建,培训和部署人工智能,”Massimiliano Versace说。“当涉及视觉AI的构建方式时,Neurala的Brain Builder平台已经在改变游戏规则。而现在,视频注释将进一步扩大可访问性和生产力的可能性。“Neurala说,Brain Builder还可以提供可观的投资回报。使用Brain Builder,组织可以以每小时6,750美元的视频进行注释,而没有它的则为13,500美元。Neurala发布  了一个教程  ,概述了使用Brain Builder在视频中标记对象的过程和好处。它还解释了如何使用TensorFlow训练语义分段网络。此外,本教程还引导观众了解跨多个GPU的培训步骤,这可以进一步缩短培训时间。