文继荣:做推荐算法要对“公平性”有一个清晰的定义

快报
2021
06/25
16:31
亚设网
分享

中新经纬客户端6月25日电 (张燕征)近日,由中国人民大学高瓴人工智能学院等单位主办的“推荐算法社会价值与可持续发展”研讨会在中国人民大学举行。中国人民大学高瓴人工智能学院执行院长文继荣表示,用算法来优化目标对商业公司来说无可厚非,但也要关注公平问题,而对于做技术和算法的人来说,清晰的“公平”定义是必要的前提和基础。

文继荣:做推荐算法要对“公平性”有一个清晰的定义

中国人民大学高瓴人工智能学院执行院长文继荣。来源:主办方供图

文继荣表示,推荐算法是目前人工智能应用最广泛的技术。无论是订餐、购物还是看资讯,都应用了推荐算法,对人们的日常生活影响非常大。但是这些技术在给人们带来便利的同时也出现了很多问题。

他以“大数据杀熟”为例进行了说明,“做技术的人都知道,商业公司使用算法来优化目标,目的是挣更多的钱,这无可厚非。但除了考虑获取更多的利益,还需要考虑算法的公平问题。”

文继荣认为,对于做技术和算法的学者、专家来说,一个清晰的定义是必要的前提和基础。关于“公平”这个概念,人与人之间的公平性定义不同。在学术界,推荐个性化和多样性是两个研究方向,个性化是用户过去的需求,而多样性是引导用户产生新的需求,如果对公平性有一个清晰的定义,那么,结合个性化和多样化技术满足用户精准的需求是非常有意义的。

据文继荣介绍,中国人民大学高瓴人工智能学院在2019年成立之初就提出做“有温度的人工智能”的口号,为全球思考并创造“智能而有温度”的未来。希望未来的人工智能不仅仅是技术人员的参与,还有社会科学、心理学、法学的专家参与,让更多有温度、有情怀的人工智能技术应用到人们生活的方方面面。

文继荣还表示,算法问题在人工智能应用的初期是不会被人关注的,但如果高校和科研机构的研究人员能将算法问题做系统的研究和梳理,将对人们未来的智能生活是非常有意义的。(中新经纬APP)

( HN666)

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 亚设网的观点和立场。

20.jpg

关于我们

微信扫一扫,加关注

Top