首页 动态 > 正文

世界快看:为什么人类是对抗人工智能偏见的关键

2023-02-15 17:56:06 来源:互联网 分享到:


【资料图】

人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据Statista的数据,现在有84%的全球商业组织认为AI会给他们带来竞争优势。

人工智能可能很常见(至少在简单的层面上),但要将它发展到成熟则更难以捉摸。训练机器像人类一样学习、响应和操作,需要在无数情况下输入大量数据。

对于组织来说,面对许多潜在的问题,仅仅管理它们是非常困难的。最常见也可能是最危险的问题是数据偏差。如果组织计划在AI方面做得很好,那么处理这种偏见应该是它的首要任务。否则,公司将面临算法交付错误结果的风险,并可能疏远大多数客户。

解决这个问题的第一步是首先了解算法是如何变得有偏差的。每个开发人员(对于这件事,每个人)都有有意识和无意识的偏差,这会影响他们最初的开发,而且因为算法的智能只有训练数据那么聪明,可能会成为危险的先例。不良数据可能导致有偏见的AI做出伤害人和人的积极决策。然而,人类虽然是一切偏见的根源,但也是消除偏见的关键。

如今的消费者希望AI变得更加自然和人性化,但要实现这一点,算法中输入的数据必须更能代表现实世界。

大规模收集真人的各种训练数据就是做到这一点的方法。利用涵盖许多国家、年龄、性别、种族、文化、政治派别、意识形态、社会经济和教育水平的经审查的全球社区,组织可以验证其算法正在产生准确的、类似人类的和真正有用的结果。这适合于获得训练数据的基准集和正在进行的数据收集,因此建议引入一个允许持续反馈和修改的结构。

可能是一些用户报告了产品某些方面的问题,例如语音或面部识别,然后可以将此反馈纳入下一个版本的算法中,供未来用户使用。

现实是,尽管技术无限实现,AI也只能和写它的人一样好。当我们考虑每个人有意无意的偏见时,会造成很多问题。在某种程度上,人工智能总是有偏差的,但通过在发布前收集实际的人类交互,企业可以训练自己的算法,获得能够为客户提供真正价值的结果。

我们已经到了人工智能开始影响决定我们社会中个人和集体未来的地步。因此,开发这些算法的公司必须发挥积极作用,才能让AI更好地反映社会,让每个人都更加公平。

关键词: 人工智能 正在进行 变得更加 数据收集

x 广告

乐高集团旗下超百款产品涨价 消费者对涨价表现得并不十分敏感

8月1日,乐高集团旗下超百款产品涨价,涨幅最高达到25%;而7月31日,TOP TOY宣布全线降价,欲打破高品质积木价格壁垒。一涨一跌背后,是本

4.2万余名残疾人有了专属辅助器具

市残联辅助器具中心为我提供的这辆轮椅,可以躺可以坐,时间长也不太累。由于交通事故导致高位截瘫,张家口市桥东区重度肢体残疾人边海卧病

大庆航空救援支队张家口驻防队伍圆满完成任务

近日,在跨省驻防460余天,圆满完成北京2022年冬奥会和冬残奥会张家口赛区森林防灭火、应急救援等安保任务后,大庆航空救援支队张家口驻防

张家口宣化区不动产登记中心全面提升登记服务工作效率

在工作人员的指引下,半个小时就办完了,没想到这么方便。近日,在宣化区不动产登记中心,前来办理房屋抵押手续的市民孙淑苗高兴地对记者说

助力重点群体稳定就业 张家口开展“春风行动”网络招聘活动

为保障企业用工需求,助力重点群体稳定就业,今年以来,张家口市人社部门联合工信、民政等部门在全市范围内组织开展春风行动网络招聘活动。

x 广告

Copyright   2015-2022 东方地质网  版权所有  备案号:沪ICP备2020036824号-8   联系邮箱:562 66 29@qq.com