100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > 构建人工智能评测平台(体系)

构建人工智能评测平台(体系)

时间:2018-08-13 21:20:47

相关推荐

构建人工智能评测平台(体系)

6月1日,上海交通大学教授李仁涵,在清华一场论坛上的分享。

主要有四点体会:

一是国际人工智能治理正在加速可操作化(为什么)

国际技术标准组织(IEEE,ISO/JTC1)开始,进入井喷期,比如,6月出台的IEEEP7000-P7013,系统设计期间解决伦理问题的模型过程的标准。

具体方面:

数据治理领域,数据信托、公共数据开放、公民数字身份

算法治理领域,政府投资可信AI、公共部门采用可信AI

网络治理领域,间接管制

监管政策领域,监管机构、监管框架、监管基础能力

产业政策领域,中小企业、技术与场景人才培养

社会政策领域,数字技能培训、人工智能知识普及

二是AI发展带来的社会属性问题(是什么)

人工智能是一种通过机器模拟人类认知能力的技术。对它的要求也需要像人的要求那样,才能和谐相处。

随着人工智能技术的发展,社会属性问题随之而来。主要有:一是安全问题。已经发生,只要涉及到国家安全、社会安全、经济安全、个人安全等。二是伦理问题。也已经发生,主要涉及到人们的隐私、公平、透明、歧视、就业等。三是不可控或变异安全问题,尚未发生,属于非常规问题,未来如果出现,有可能会不可控,对人与社会造成伤害。

因此,需要从技术与治理两个层面应对AI带来的问题。一是发挥技术支撑作用,建立可信可控的AI。二是加强国内治理,对标国际规则。通过制定标准、规则、法律、监管和执法规范AI治理。

三是建立人工智能平台(体系)(怎么办)

建立AI评测平台(体系)有助于AI治理落地。可以先从常规安全问题和伦理问题着手,非常规安全问题(不可控或变异)可以开展前瞻性研究。具体有以下几点建议:

在研究量化的AI技术衡量指标基础上,健全AI数据标准、测评、知识产权等服务体系,打造标准化格式的数据集。

围绕产业术语、参考框架、算法模型、基础理论、关键技术以及产品和服务、行业应用、安全(可控与非可控)和伦理等等,为各领域AI技术应用提供标准、指南和实践案例等。

建立针对AI技术标准化评测方法体系(国际化),形成有效的AI监管和审核工具。

四、人工智能伦理问题能否通过特定的治理工具得到解决?在AI评测平台中如何考虑伦理问题?

短时间只能解决小部分,整个过程还是要从无序到有序。伦理是柔性的,如果有刚性的比如法律法规,技术标准等,则比较好实现。比如,招聘中,就存在歧视的问题,很难有统一的评判标准,都是公司从自身需求出发。

将来,AI评测平台或者说治理工具都是多样化的,扁平化的,不像过去由上到下贯通的。

AI评测平台对于伦理需要进一步开发研发,然后标准、法律法规同步进行。这个过程需要实践、案例、国际合作等多元主体共建。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。