联系方式    |    在线留言 pg模拟器(试玩游戏)官方网站·模拟器/试玩平台
pg模拟器(试玩游戏)官方网站·模拟器/试玩平台
客服热线089-235279723
荣誉资质

如何防止AI将你认成“大猩猩”?光靠肤白可不行【pg电子赏金试玩app】

作者:免费pg电子游戏麻将    发布时间:2024-10-15 18:58:01    浏览量:
本文摘要:各位否还忘记,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?

各位否还忘记,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?于是以因此次事件导致的不良影响,让Google意识到:与其担忧AI伤人,更加相当严重的是AI种族主义问题。为了避免AI“胡来”,Google为其制订了七项“道德”准则。事情的原委是这样的,2015年,一位名为JackyAlciné的黑人软件开发人员在推特上透漏,GooglePhotos用于的图像分类器将一名黑人女性称作“大猩猩”(Gorillas),引发了轩然大波。

事发后,谷歌为此深表歉意,并著手处置这一漏洞。不仅如此,谷歌还明确提出AI技术的研发道德准则,并且正式成立了专门的机器学习道德部门,对公司的产品和服务展开分析测试,明确提出改良意见,尽量防止AI种族主义的产生。

不光是Google,从IBM到Airbnb,每家公司都在希望保证自己的算法会经常出现类似于的偏差。为此,今年6月,Google首席执行官SundarPichai公布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,还包括保证Google员工会生产或强化不公平的AI种族主义,并回应AI技术的研发和用于将在未来许多年内对社会产生根本性影响:对社会有益  防止生产或强化不公平的种族主义  修建并测试其安全性  对民众负责管理  带入隐私设计原则  坚决科学卓越的高标准  为合乎这些原则的用户获取除了那次不无聊的“大猩猩”事件外,哈佛大学的研究员LatanyaSweeney回应:谷歌搜寻中不存在种族歧视,当搜寻类似于黑人名字时,不会比搜寻类似于白人名字更加有可能经常出现与“被被捕”涉及的广告。这些现象都是我们的部门正式成立的原因,不应当让我们的用户看见这些,我们必须首先制止这些种族主义的产生。

实质上,对于AI种族主义这件事,一份来自皮尤研究中心近期发布的研究结果显示:目前美国有58%的成年人指出,人工智能的算法极为程序将不会一直包括对人类的种族主义,人工智能求出的结果无法保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人指出算法不中立;18-29岁的受访者中,也有48%的人指出算法一定会不存在种族主义。

如此显然,大众对AI种族主义这件事存在共识。似乎,解决问题AI种族主义光靠Google一家公司还远远不够,必须有更加多的公司重新加入其中。


本文关键词:免费pg电子游戏麻将,pg模拟器试玩入口免费,pg试玩版网站,pg电子赏金试玩app

本文来源:免费pg电子游戏麻将-www.hxsound.com

新闻推荐

友情链接: yodo官方下载 天博tb·综合体育 博鱼(boyu·中国)官方网站 best365官网下载最新版本免费版 亚傅体育app官网登录入口

在线客服 : 服务热线:089-235279723 电子邮箱: admin@youweb.com

公司地址:广东省广州市天河区某某工业园88号

免费pg电子游戏麻将,拥有占地面积57000平方米,建筑面积100000平方米的净水生产基地,是目前国内同行业中集产销研,服务一体的高新技术生产企业。...

Copyright © 2007-2024 www.hxsound.com. 免费pg电子游戏麻将科技 版权所有