首页 > 科技向善

人工智能该怎样践行“科技向善”

发布时间:2021-12-29 17:33:05 | 来源:央广网 | 作者: | 责任编辑:

央广网北京12月5日消息(记者冯烁)据中央广播电视总台中国之声《新闻纵横》报道,随着智慧城市、智能设备越来越多地进入到人们的生活中,人工智能在赋能千行百业的同时,也带来了安全、隐私、公平等问题和挑战。诸如个人信息泄露问题,低俗劣质信息精准推送、“大数据杀熟”等算法歧视乱象凸显出来。

近期,各国监管机构也加大了对算法不公平的打击力度。人工智能带来了哪些新烦恼?面对这些烦恼人们真的束手无策吗?

现如今人工智能已经成为一股无可抵挡的潮流,甚至遍布于各个行业之中。然而当人工智能越来越懂人类时,我们不禁要担心:这些人工智能会不会哪一天就把我们给“卖了”?

以近些年很多小区安装的人脸识别门禁为例,不少业主都表示担心被采集的人脸信息泄露。

各类人脸识别系统、手机App等都在广泛采集用户人脸、声纹等具有强个人属性的生物特征信息及行为轨迹等数据,一旦泄露将威胁个人隐私。

数据安全是数字经济发展中最关键的安全挑战之一,近些年国际社会上发生的数据泄露事件也并不少。今年8月,微软服务器上约3800万条记录(包括私人信息)被暴露。此次的数据泄露包括用户的姓名、地址、财务信息和新冠肺炎疫苗接种状态等,人员涉及美国航空公司、福特公司以及马里兰州卫生部和纽约市公共交通系统等公共机构。

从我国法律层面上看,今年11月,个人信息保护法正式实施,针对人脸识别等行为作出了明确规定。至此,连同已经实施的数据安全法、网络安全法,三者共同构成了我国在网络安全和数据保护方面的法律“三驾马车”。

国家新一代人工智能治理专业委员会主任薛澜表示,新一代人工智能以数据为基础,所以首要挑战就是怎么样能够有高质量的数据集建设并对数据进行有效管理。

在购物网站上填个调查问卷,甚至连问卷都没填,仅是浏览信息,就几乎看不到一些选项范围之外的商品广告信息了;通过应用程序(App)阅读了一条养生信息,随后便会经常收到养生知识、养生产品的广告推送……这都是“算法歧视”,很多人有切身感受。

当前,人工智能技术的发展正处在关键十字路口。12月4日,2021人工智能合作与治理国际论坛在京开幕,大咖云集。他们如何看待这个问题?人工智能又应该怎样去践行“科技向善”呢?

今年年初,中国消费者协会就消费领域不合理的算法现象发声,揭露出“大数据杀熟”的六种现象,其中就包括大家非常熟悉的“精准推送”——这是指互联网平台通过监测分析消费者的消费行踪轨迹,如浏览过的页面、广告、商品服务、话题等,有针对性地对消费者进行商业营销。

一位来自南京的消费者告诉记者:“比如,我5分钟之前跟朋友聊到电动牙刷,5分钟后我打开某些电商平台,它就会给我推送这种商品,而这种商品是我之前没有搜索过的。”

的确,随着人工智能技术的发展,更精准地读懂大家想要什么在一些场合下变得非常方便,但是一旦这种对信息的收集越了界,将给大家带来无尽的困扰。

目前我国已经陆续出台了一系列政策,为“大数据杀熟”戴上紧箍咒。11月18日,上海率先在电子商务领域出台地方性指引,制定发布《上海市网络交易平台网络营销活动算法应用指引(试行)》,明确平台经营者不得利用算法实施不正当价格行为,不得利用算法对消费者实施不合理的差别待遇。

今年8月,国家网信办已经出台了《互联网信息服务算法推荐管理规定(征求意见稿)》,要求算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷或者高额消费等违背公序良俗的算法模型。

不少专家都表示,发展人工智能,必须坚持技术永远服务人的原则,而不是利用技术来窥探人、伤害人。

对此,清华大学智能社会治理研究院院长苏竣指出:“算法以前所未有的速度和无与伦比的精度处理数据,让占据了用户数据和高级算法优势的个体或组织,因此获取了极大的权力,形成垄断性的超级平台,对市场活动中的劳动者权益和消费者的福利造成了无边界的蚕食。当今社会,每个人其实都被困在各式各样的算法里。”

众所周知,人工智能是在特定模型下自我学习形成算法的,训练模型所依据的数据集和模型本身的设计都有可能带来偏差。而这就会带来歧视问题。

美国卡内基梅隆大学学者就曾经用钓鱼软件模拟普通用户浏览求职网站的实验,然后统计谷歌推送“年薪20万美元以上的职位”的广告数据,结果男性收到1852次推送,女性收到318次。结果很明显,平台可以通过后台进行关键词设置,可以“操作”每类人群收到的信息频率。

一位来自美国的黑人女士乔伊也曾公开表示,在实习中她遭遇了这样一种情况——由于自己是黑人脸庞,所以人脸识别摄像头无法识别她的面容。

对此,清华大学人工智能国际治理研究院学术委员龚克表示,人工智能很可能会导致广泛的歧视和不公问题,这种算法偏见亟待纠偏。

“我们现在使用人工智能的时候,是靠数据来训练模型,而我们从社会中采集的数据带有了现实社会的很多偏见。如果我们没有适当的技术对我们的算法进行偏见的检测、去除,公平无歧视的原则就会变得没有办法落地。”龚克说。