清华大学社科学院副院长孟天广:人工智能伦理及其治理要打通科技社群与社会大众

  • 2021-08-18

  • 来源:

来源丨和讯网

近日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”研讨会在线上举行。清华大学社科学院副院长、长聘副教授孟天广在研讨会上表示,社会大众和科学家在人工智能伦理方面的理解存在分歧,人工智能伦理及其治理体系需要构建包括监管机构、科技企业、科技社群、算法工程师、社会大众等利害相关者参与的共治共同体。

孟天广表示,人工智能时代的来临给全社会带来巨大机遇,同时也蕴含新的挑战。近年来人工智能伦理成为社会各界热议的话题,尤其是新冠疫情以来,智能产品快速进入生活工作场景,人们围绕人工智能理论的争议愈加明显。对此,清华大学数据治理研究中心围绕人工智能伦理及其治理体系展开研究,通过理论分析、国际比较、实证研究形成了《人工智能伦理与治理》研究报告。

关于对人工智能伦理的内涵理解,孟天广称,“似乎我们有两个世界”。从科学家(譬如科技哲学)的视角去看待人工智能技术及其应用的社会后果、社会风险和伦理问题,他们更关心的是人类尊严、人类自主性、算法透明等角度。

“但是从社交媒体和问卷调查的实证研究却表明,第二个人群,即社会大众,其实更关心人工智能在安全(可靠)、隐私、公平等维度带来的挑战。”孟天广表示,这就需要让科技企业提供更可靠、公平的人工智能应用,同时坚守隐私保护和社会责任等底线原则。

孟天广指出,社会大众和科学家在人工智能伦理治理的分歧在于:科学家通常看到的伦理问题过于前瞻性,而社会大众则在日常体验人工智能时形成伦理关切。他认为,人工智能伦理治理应该平衡“自上而下”和“自下而上”两种视角,构建共建共治共享的治理机制。

对于具体如何构建人工智能伦理的治理机制,孟天广建议可以从三方面着手:一是监管者层面,建立、健全人工智能治理法律法规,规范人工智能应用场景,明确人工智能伦理问题权责归属和防范人工智能风险。

二是AI行业层面,制定人工智能伦理行业标准,形成人工智能技术及其应用的共识性通则,培育科技企业的人工智能伦理意识、为人工智能开发和使用提供价值标准。

三是AI用户(消费者)层面,开展人工智能普及工作及伦理培训,通过公益广告、科普作品、科技体验增进消费者对人工智能产品的体验和了解,逐步破除算法鸿沟,提高公众智能素养。

  • 观点
  • 新闻
  • IT/互联网
  • CIO
  • CDO
  • IT
  • 人工智能

推荐

我要评论