本文摘要:按:我们关注人工智能有多擅长。

yabo网页登陆

按:我们关注人工智能有多擅长。棋手、德克萨斯扑克和脸部识别可以战胜人类,但人工智能显得聪明,背后有大量数据的支持,必须显示这些数据。因此,随着人工智能的兴旺,专门从事数据显示的人也在增加。Wired的这篇文章解释了谷歌如何雇佣人工显示YouTube视频来训练AI。

本文由(公共编号:)编译。目前谷歌的广告质量评价员在全国各地都不存在。这些临时员工一般由外部机构招聘,其工作是YouTube的视频过滤器暴力、脆弱的广告信息。

这项工作现在只能用电脑自己完成,谷歌现在也许需要他们的协助。YouTube每天销售数百万个视频广告,广告播放方向不会由系统自动分配,广告主往往不告诉自己的广告。最近,这种不确定性让谷歌感到困惑,公司被有关人员审查。

谷歌方面还在强烈说明,避免舆论党内外。他们显然,媒体高估了视频广告问题,现在标记的视频数量还没有约定总数的千分之一,谷歌最高营销负责人PhilippSchindler的回应也明显不足以训练。谷歌多达90%的收益来自广告,他们也要慢慢解决问题,避免广告商撤退。

但是,YouTube每天有将近60万小时的新视频上载量,这么大的数量使用人工过滤器变得困难,软件处理完成的标记量被称为前所未有。然而,问题是,公司仍然需要投入人力资源展开AI培训。因此,谷歌依赖于人工完成广告标记,构建AI自学所需的数据。评价员任务技术公司多年不雇用内容管理员,这项工作也随着人们上载和共享量的减少而变得更加重要。

一位广告评价员说,他们的作用在某种程度上是监视录像,不能读者评论,不能检查标记用户之间的欺诈不道德的谷歌获得的各种网站,不能保证符合公司标准,也不能按类别分类网站,页面广告链接是否长期检查明确地说,在某些情况下,评价员必须在近两分钟内查阅几个小时宽度的电影,这意味着这项工作更加强调数量和速度。另外,他们不仅要把视频简单地标记为不合适——从标题到内容,还要进行细致的评价和分类。如果没有评价内容和既定的几个类别,他们就不会把材料标记为不能评价类。

也有很多广告评价员表示,公司拒绝观看内容令人震惊的。例如,有人在车上杀了自己的狗——录像中的人放火烧了自己的车,回头一枪就结束了自己的生命。此外,还有人会看到暴力侵犯妇女儿童和动物的视频。

只是,评价员们不知道谷歌是如何开展视频任务的——只有开始工作的人才能看到视频的标题和缩略图。总之,谷歌仍然需要人力来帮助处理YouTube的广告问题。

公司的经营干部和代表们也多次强调,只有机械智能才能解决问题。YouTube中规模化的任务问题,但在Google的机器和其他人不应该发言之前,这样的工作必须依靠人来完成。谷歌发言人Chi、HeatCho说:我们仍然将技术和人类评论融合在一起,展开综合分析被标记的内容。

因为视频的解释是主观的。最近我们也减少了人力推迟评价的速度,这些评论有助于我们完善算法。

评价员的来源报告显示,广告质量评价员的工作始于2004年。雇佣机构的始祖是ABE,他们不会支付大家每小时20美元的工资,但2006年WorkForceLogic并购ABE后,评价员的工作条件比以前差。

2012年,被命名为ZeroChaos的公司购买了WorkForceLogic,现在以合同制的方式开展员工的雇佣。广告评价员可以随时随地工作,每周10分钟比工作拒绝低。只是,这项工作并不那么稳定,很多人都讨厌这项工作,但他们完全没有成为永久的全职员工的机会。

yabo网页登陆

这次调查的广告评价员都通过了ZeroChaos。大家每小时挣15美元,每周最多工作29小时。每周工作时间超过25小时,可以申请人的福利,但超过这个工作量可以说很困难。

有人说他们不会在没有任何预兆的情况下被解雇,公司发邮件,你们的劳务关系就中止了。实质上,由于与Google无法进行具体的交流,评价者不会对这项工作感到不安。谷歌只是给评价员标准化的邮箱作为工作方面的联系,用自动恢复方式询问邮件。

也就是说,谷歌不会告诉评价员他们的工作是最重要的,也不会非常重视工作成果的评价,但是他们会详细说明原因。谷歌不会把审查过的内容融入广告评价员的任务中借用业绩。

这些测试内容不会被邮件夹杂在日常任务中发送给评价员们,以最后的成绩评价大家的表现,未通过测试的人面临退休的危险。即便如此,每小时15美元的报酬仍然低于大多数城市的最低工资。没有人高兴ZeroChaos给他的工作机会。评价员和AI跨越技术行业的大公司雇佣临时员工作为训练AI系统的重复任务。

一位广告评价员几年前参加了评价,MicrosoftBing的搜索结果,每人每小时需要80页的搜索结果。LinkedIn和Facebook也不通过类似的任务测试。

临时工带来的安全感的不足和普遍不存在的短期合同员工,深感现在和以前的员工们的担心,谷歌指出系统的科学知识和经验逐渐丧失,这些东西原本是对工作投入更好时间的员工的控制。他们花时间训练新人,然后把他们去,觉得浪费时间。

但是,人类广告评价员可能不会寻找使AI更聪明的最佳方法。AI必须输出很多内容,特别是不满意的内容,定期输出训练员的数据更适合训练AI。为机器输出更多的信息,结果自然不会更好。另一方面,AI研究者认为,不恰当的人类习惯不一定会影响机器的学习,相反,特别是工作环境和经验可能会产生更复杂的影响。

康奈尔大学AI教授Bart,Selman说:一般来说,青连AI模型需要大量的信息输出。这种观点限于一般情况,但与道德识别有关的情况下,必须考虑到很多组中没有明显的根深蒂固的种族主义。男性指出不胜任女性的工作。因此,通过一般或传统的信息输出训练AI,不会受到这些信息中隐藏的种族主义的影响。

想用普通人的日常做法训练AI的道德吧。更了解潜在的种族主义和伦理问题,细心思考的想法是你想的信息输出。

Selman说。谷歌员工在MountainView总部有着优秀的环境,但典型的广告评价员的生活相差甚远。

为世界上最有价值的科技公司工作,意味着有优厚的福利和极高的工资,作为临时工也有可能意味着在训练这些公司的机器上工作。via:wired版权文章允许禁止发布。下一篇文章发表了注意事项。

本文关键词:yabo网页登陆

本文来源:yabo网页登陆-www.greenmansion3.com

相关文章

网站地图xml地图