数据标注「星尘数据」获数百万元天使轮投资

公司8月获得天使轮投资,由天使湾领投,英诺天使、老鹰基金和创势基金跟投。




Tractica预测,2024年人工智能市场规模将增长至111亿美元。但AI要真正发挥作用,优质的数据必不可少,正如业界共识“大量数据+普通模型”比“普通数据+高级模型”的准确度更高。所以,前端的数据采集、加工环节单拎出来成为了新的机会点。

其实,数据标注并不算一个完全新兴的产业。成立于1998年的“海天瑞声”已在语音领域耕耘近20年,因为人工智能一词的提出,最早可以追溯到20世纪50年代,不过此前主流技术没有到“深度学习”的阶段,所以数据用的相对较少。目前这个赛道上,成立久的有“数据堂”,早期公司有获得明势资本Pre-A轮融资的“爱数智慧”,完成天使轮融资的“泛涵科技”,获得合力投资数百万天使的“丁火智能”,获金沙江领投的“龙猫数据”自营数据工场的BasicFinder等。


星尘数据”也是赛道上一员,平台上聚集了2万多名大学生,通过众包方式提供数据标注服务。比如,在文本场景中,标注特定词语之间的关联关系,可以训练机器理解用户评论,也就是常说的语义识别。又比如,地产场景中,人工标注户型结构。再比如,生物医学场景中,需要人工标注人眼虹膜。

最前端,“星尘数据”根据客户的挖掘需求提供咨询服务、优化方案。之后的标注任务,在星尘自研发的“stardust”系统中完成,平台上有客户提供的数据和标注模型,任务会被切割分配给每个C端,形成“动态发题”,通过“准入考核”的C端才能认领答题。过程中,“stardust”系统会辅助标记。例如,正常的图像识别训练,需要人工一点点贴边抠图,比较费时,而stardust系统中,人工只需要标注出绿色的正区间和红色的负区间,系统就能自动抠图(如下图)。再例如,语音识别时,系统可以先自动转换一部分文字,来降低人的工作量。

我们知道,数据标记是个重人力的劳动密集型行业,这类公司的关键点就在于——人员效率、交付质量

stardust”系统便是星尘数据的主要差异点,背后离不开算法的支撑。星尘团队也都是算法出身,创始人兼CEO章磊曾在世界银行、华尔街、硅谷工作8年,涉及金融、保险、数据、量化、风险模型、人工智能等方向,在硅谷开发了世界首款股权投资机器人,在北京担任首席数据科学家。联合创始人董磊曾工作于百度人工智能实验室(前吴恩达团队),从事基于移动端数据的分析与建模工作。

目前,通过“stardust”系统,人的工作量在80%,机器的工作量在20%,这个比例还在不断优化中,未来机器可能占到80%。

在36氪之前的文章中有创业者表示不会用机器标注替代人工,“因为人工标记的数据在误差层面符合正态分布,而机器标记的都是同一水平,用机器生产的数据再训练机器,并不利于AI最后的训练效果。”以及,理论上,下游的应用公司算法更强,若用算法进行抠图,企业客户为什么不自己标注


对此,章磊认为,人工标注确实会有偏差,但这种偏差并不会有助于机器训练。准确答案只有一个,星尘可以通过算法机制保证输出正确结果,目前的准确率在99%。并且,下游应用公司的最终模型和标注时需要的模型还是不一样的,星尘的模型是用来提高效率的

还有个普遍的问题就是有关数据安全和复用,这方面星尘跟硅谷数据安全公司合作,用加密技术在数据底层做隔离,分离数据使用权和拥有权,防止数据在众包过程中泄漏。由于每个公司对数据的要求不一样,只有在一些通用的逻辑中,数据才有可能复用,比如智能客服,所以星尘基本不会留存数据,除非客户有售卖的特殊需求。

至于收费,星尘主要根据数据标注量和难度来报价,平均客单价在3-5万元以上,大客户甚至到百万级别。目前公司已经服务了10家左右客户,3-5万的单子耗时不超过1周。


章磊分享,数据的需求贯穿AI公司的各阶段,占公司支出10%-20%左右,像商汤科技就在用300人的团队标记几千万的人脸图片。现有的国内外标注营收估计在30亿人民币,预计3年后达到100亿。


不过,对于这一波因为深度学习而兴起的数据服务商来说,最大的潜在威胁很可能并非来自竞品,而是来自于增强学习、迁移学习等算法,后者仅需要少量的数据即可以达到一定的效果。章磊认为,迁移学习等确实是将来的趋势,就单个模型来说,积累越久,数据需求量肯定会越少,但对于新模型来说,前期的需求量不会少,而模型是在增加的,所以对于“数据标注”这个正处在上升期的行业,暂时不会有明显影响。





据悉,“星尘数据”公司在今年5月份注册,8月获得数百万元的天使轮投资,由天使湾领投,英诺天使、老鹰基金和创势基金跟投。团队目前在10人左右,还在扩招中(Python工程师岗位,高级销售经理岗位,高级市场经理岗位),如果你也对该公司感兴趣,可以投递简历至liaijun@stardust.ai

本文来自36氪




推荐文章

昨天,谷歌与霍华德 • 休斯医学研究所 (HHMI) 和剑桥大学合作,发布了一项深入研究果蝇大脑的重磅成果 —— 自动重建整个果蝇的大脑。他们使用数千个谷歌云 TPU,重建的完整果蝇大脑高达 40 万亿像素。有了完整的大脑图像,科学家距离了解大脑如何工作更近了一步。你知道吗?果蝇是公认被人类研究的最彻底的生物之一,截至目前,已有 8 个诺贝尔奖颁发给使用果蝇的研究,这些研究推动了分子生物学、遗传学和神经科学的发展。科学家们一直梦想通过绘制完整的大脑神经网络的结构,以了解神经系统是如何工作的。最近研究的一个主要目标是果蝇的大脑。果蝇的一个重要优势是它们的大小:果蝇的大脑相对较小,只有10万个神经元,相比之下,老鼠的大脑有1亿个神经元,人类的大脑有1000亿个神经元。这使得果蝇的大脑更容易作为一个完整的回路来研究。今天,谷歌与霍华德•休斯医学研究所(HHMI)和剑桥大学合作,发布了一项最新深入研究果蝇大脑的研究成果——自动重建整个果蝇的大脑。果蝇大脑的自动重建这篇论文题为“利用Flood-Filling网络和局部调整自动重建连续切片成像的果蝇大脑”:  来自谷歌、霍华德•休斯医学研究所(HHMI)Janelia研究园区以及剑桥大学的一共16位研究人员参与了这个研究,其中,第一作者Peter H. Li是谷歌研究科学家,主要研究方向包括一般科学、机器智能、机器感知。Peter H. Li他们还提供了果蝇大脑完整图像的展示,任何人都可以下载查看、或使用交互式工具在线浏览,他们开发了一个3D的交互界面,称为Neuroglancer。 Neuroglancer的演示这不是果蝇大脑第一次得到完整绘制,今年1月,Science 杂志用封面报道,介绍了 MIT 和霍华德·休斯医学研究所(HHMI)科学家们成功对果蝇的完整大脑进行了成像,并且清晰度达到了纳米级。但那次仍是人工的方法,使用了两种最先进的显微镜技术。几十年来,神经科学家一直梦想绘制出一幅完整的大脑神经网络的精细地图,但对于拥有1000亿神经网络的人脑,需要处理的数据量之巨大是难以想象的。如果能自动重建果蝇大脑,也许离自动绘制人脑就更近一步了。这也不是Peter H. Li的团队第一次试图用AI方法绘制大脑神经元,他们分别在2016年和2018年在更小的数据集上进行了研究,如下图右下角所示。一个40万亿像素的果蝇大脑的3D重建;右下角分别是谷歌AI在2016和2018年分析的较小数据集。在2018年,谷歌与德国马克斯普朗克神经生物学研究所合作,开发了一种基于深度学习的系统,可以自动映射大脑的神经元。他们对100万立方微米斑胸草雀大脑扫描图像进行了重建。研究人员称,由于成像的高分辨率,即使只有一立方毫米的脑组织,也可以产生超过 1000TB 的数据。因此,这次重建整个果蝇的大脑,可想数据量有多庞大。用于处理数据的,是谷歌的Cloud TPU,而且是数千个!Google AI负责人Jeff Dean也在推特上感叹道:TPU真的会飞!GoogleAI的科学家使用TPU来帮助重建了整个果蝇大脑的神经连接!下面,新智元带来对这一研究的详细解读:40万亿像素果蝇大脑,自动重建!在实验过程中,主要采用的数据集是FAFB,它是“full adult fly brain”(完整成年果蝇大脑)的缩写(相关数据集信息见文末)。研究人员在此数据集上,将果蝇的大脑切成了成千上万个40纳米的超薄切片,而后用透射电子显微镜对每个切片进行成像,这就产生了超过40万亿像素的大脑图像。并且将这些2D图像整合成连贯的3D果蝇大脑图像。接下来,研究人员使用了数千个云TPU,并应用Flood-Filling Network (FFN),以便自动跟踪果蝇大脑中的每个神经元。通过FFN对整个果蝇大脑进行密集分割(dense segmentation)上图中的A是3D渲染的FAFB数据集平滑组织掩膜(smoothed tissue mask)。任意冠状切片(数据集XY平面)显示了整个内部的FAFB-FFN1分割。B-E展示了增加缩放比例后的效果。自动神经元重建与手动神经元跟踪做验证对比虽然这个算法总体运行效果还算不错,但是当对齐(alignment)不够完美(连续切片中的图像内容不稳定)或者偶尔由于在成像过程中丢失了多个连续切片时,性能会有所下降。为了弥补这个这个问题,研究人员便将FFN与两个新程序结合起来。首先,估计出3D图像中各个区域切片之间的一致性,然后在FFN跟踪每个神经元的时候局部稳定图像中的内容。其次,研究人员使用SECGAN来计算图像体积(volume)中缺失的切片,而当使用SECGAN时,研究人员发现FFN能够更可靠地跟踪多个缺失切片的位置。局部调整(Local Realignment,LR)不规则截面的替换整体FAFB-FFN1的分割pipeline Segmentation-assisted神经元跟踪果蝇大脑与Neuroglancer的交互可视化当处理包含数万亿像素和形状复杂的物体的3D图像时,可视化既重要又困难。受谷歌开发新可视化技术的历史启发,研究人员设计了一种可扩展且功能强大的新工具,任何拥有支持WebGL的网页浏览器的人都可以访问。结果就是Neuroglancer,一个在github上的开源项目,可以查看petabyte级3D volume,并支持许多高级功能,如任意轴横截面重构(arbitrary-axis cross-sectional reslicing),多分辨率网格,以及通过与Python集成开发自定义分析workflow的强大功能。该工具已被合作者广泛使用,包括艾伦脑科学研究所、哈佛大学、HHMI、马克斯普朗克研究所(Max Planck Institute)、MIT、普林斯顿大学等。未来工作谷歌表示,HHMI和剑桥大学的合作者已经开始使用这种重建来加速他们对果蝇大脑学习、记忆和感知的研究。然而,由于建立连接组需要识别synapses,因此上述结果还不是真正的connectome。他们正与Janelia Research Campus 的FlyEM团队密切合作,利用“ FIB-SEM ”技术获得的图像,创建一个高度验证且详尽的果蝇大脑的connectome。

热门文章

        对数据标注行业稍微有些了解的人都知道数据标注进入门槛低,适合很多人兼职也适合创业。        正是因为数据标注行业的门槛低这个特点最近两年从事数据标注的小公司小工作室如雨后春笋般的遍布全车大大小小的县城。        但是目前有个有趣的现象,那就是有很多进入数据标注行业做了一段时间的人慢慢的感觉数据标注行业就是个坑?为什么有些人会说数据标注就是个坑呢?        其实对与有上述问题认识的人我们认为,这些人多数都是有于对这个行业对自身条件的不了解,盲目的开始进入数据标注行业的。为什么我们会这样说呢?下面就给给大家来分析下到底有哪几方面的原因:        一、有相当一部分人是听了朋友或者网上消息说这行很火爆,好做,门槛低,也有一部分人了因此租办公室买电脑招人,然后就去群里面找分发项目的人就开张干起来了。可实际上这些人他们大多数都没有充分了解数据标注行业,更没有认真仔细得去调查分析,到底自己能不能做好一个项目,到底自己能不能有质有量按时交付的完成一个项目,到底自己有没有这个能力来管理项目。更多的人也没有去用长远的眼光去考虑数据标注项目。        二、数据标注项目虽然入门门槛低,但是相当一部分有于理解认知应变能力上都不能保证去做好数据标注项目,还有一部分人由于自己对标注项目重视程度不足接到项目之后呢?不仔细认真的去阅读理解项目规则,更没有很好的对规则质检标准去培训员工,而对员工的要求主要看重每天的产出效率,从而导致接到手的项目做的质量很差,频繁的返工,有提项目甚至因为质量太烂项目方不给结算或者是结算比例很少,最终的结果就是做好些个项目但基本都是赔钱。        三、虽然业内人都 说数据标注简单,但是标注项目他也是一个系统性的工程,一个项目能不能做好并不简单的看项目好做就能赔钱。实际上决定项目赚不赚钱考验的是一个团队的项目管理水平,质量管理能力,运营能力各方面因素的。一句话再好赚钱的项目也照样有人赚钱也有人赚钱,要赚钱不是那么简单的。        四、还有些工作室 、小公司因为对行业不够了解等他们做了一段时间后发现,自己团队经常会没有项目做,而自己团队接项目的业务能力又不具备,甚至有的时候为了员工有活干去接一些价格极低根本就不赚钱的标注项目,时间稍微一长这些工作室团队就会赔上很多钱最终关门倒闭。        五、下来要说的就是一部分人人兼职人员由于认识不到位,对项目的规则质量要求 文件不认真阅读消化理解导致做的项目质量差返工有的甚至最后不结算,最终退出这行。更有一些人由于经验不足被标注行业的项目骗子给忽悠到辛苦劳动到最后结算时找不到人。        标注行业本身由于进入门槛低,做的人很行业内盲目打价格战,导致很多转手二手三手的项目在质量工期的要求下根本就不赚钱甚至赔钱,所以在这里也提醒大家做任何事都要谨慎而行。