2019第一届可信人工智能论坛在北京召开[图]

发布时间: 2019-11-08 13:31:54 | 来源: 中国网 | 作者: | 责任编辑: 王一辰

近日,2019第一届可信人工智能论坛在北京理工大学召开,该论坛是逄金辉老师组织的北京理工大学大数据创新学习中心系列AI科学前沿主题论坛之一,本论坛共邀请了20余位知名逻辑学家、数学家、科学家、法学家、伦理学家和业界精英深入讨论可信人工智能理论及应用。

 论坛由中国科学院人工智能联盟标准组、中国人工智能学会机器博弈专业委员会、中国科技法学会人工智能法专业委员会、北京理工大学计算机学院联合举办,围绕人工智能的真实性、安全性、韧性、隐私性、可靠性和可用性)等困难问题展开,内容包括可信人工智能的数学基础、机器推理、博弈逻辑、博弈学习、密码学博弈、自适应博弈、自适应学习、自动校准学习、图深度学习、图强化学习、联邦学习等。

 自2017年11月,中国科学家何积丰院士在香山科学会议第S36次学术会议上提出“可信人工智能”,可信人工智能越来越多的得到国际社会的关注和认可。2018年12月,欧盟委员会人工智能高级专家组发布《可信人工智能伦理指南草案》。2019年2月,美国旧金山举办的“IMB Think2019”大会,可信人工智能成为核心议题之一。当年4月,欧盟委员会以“建立对以人为本AI的信任”为题,发布AI伦理准则。6月,二十国集团达成G20人工智能伦理原则,包括“可信人工智能的负责任管理原则”和“可信人工智能的国家政策和国际合作的建设”两个部分。

 论坛上,何积丰院士表示,随着人类生活被人工智能广泛渗透,公众接受人工智能的程度也越来越高,随之而来的是人工智能的可信问题。

 从国外案例来讲,“自动驾驶”汽车因人工智能未能识别道路清扫车而导致交通事故,聊天机器人被黑客攻击而学会种族主义,达芬奇手术机器人因感知系统无法正常工作,人脸识别公司数据库遭到泄露,由人工智能导致的问题层出不穷,“信任危机”不断凸显。

 他认为,人工智能系统不可信原因主要是因为,人工智能发展时间短,技术和产品不够成熟。同时,社会对人工智能的期望较高,带来了行业发展过热的趋势,但技术和产品的安全可信度远远落后于技术的发展。

 何积丰表示,当前人工智能系统基于机器学习理论,而非传统软件理论。传统软件理论目标系统行为由形式化定义描述,而机器学习目标系统行为由示例样本描述——尚不可验证,无法进行软件形式化描述,尚不可分析,复杂度高,这些都是导致人工智能系统不可信的主要原因。

 他表示,人工智能的创新和安全应是平衡发展,创新能够推动安全,没有创新,安全便没有意义。

 在国际层面,已经有国家和组织提出了可信人工智能的基本准则。G20会议上提出的可信人工智能原则具体包括包容性增长、可持续发展及人类福祉,以人为本的价值观和公平、透明度和可解释性,健壮性、信息安全与物理安全,以及问责制。而欧盟有关可信人工智能的原则包括:福祉原则、不作恶原则、自治原则、公正原则以及可解释性原则。

 “可信人工智能是构建数据驱动、人机协同、跨界融合、共创分享的新型经济形态的核心推动力,”何积丰说。

 他认为,围绕算法、算力、网络、数据、认知等可信人工智能核心要素,亟待从可信软件、可靠硬件、可信网络、主动防御、合理管控以及社会伦理法律等维度出发,构建可信人工智能基础理论及应用验证体系,为推进新一代信息基础设施建设提供方法论及共性技术支撑。

 

声明:中国网图片库()供本网专稿,任何网站、报刊、电视台未经中国网图片库许可,不得部分或全部转载,违者必究! 咨询电话010-88820273。