人工智能 频道

专家支招科技伦理和人工智能治理,建议加强伦理影响评估

  5月5日,北京市科协专业智库“论策论道”沙龙举行,专家就中国前沿科技创新治理、人工智能伦理等热点话题进行交流献策。中国新一代人工智能发展战略研究院执行院长龚克表示,人工智能健康发展的关键在“人工”。“人工”要使“智能”强大高效,同时有爱至善。

  生成式AI应发展高效低碳的AI基础设施

  近期,ChatGPT的火爆引发了行业对生成式AI治理的关注。如何把握发展和治理的关系?龚克说,人工智能是具有头雁效应的先进生产力,在大力发展人工智能的同时,必须高度重视风险挑战,加强前瞻预防与约束引导,确保其安全、可靠、可控发展。

  “人工智能是革命性通用技术,是当代先进生产力的先锋,它的发展不以人的意志为转移。治理是促进其健康发展,而非抑制其发展。”他认为,AI治理中需把握四个重要关系:发展与规制的关系,对AI治理包括促进创新与保障安全两个方面;生产与使用的关系,治理要以供给侧为主,但不能忽视使用侧;政府与社会的关系,形成有利于AI健康发展的生产关系和治理体系;技术与法规的关系,AI的双重属性决定其治理也有技术与社会双重属性。

  针对当下生成式AI治理,他建议加大力度发展AI相关标准化工作,包括词语标准、安全标准、程序标准、能效标准。在技术上,抓紧开展高质量标准化数据集建设,追求有效优势,实现高质量自监督学习。在追踪追赶大模型和相关算法的同时,敢于独辟蹊径,注重针对需求的专业应用,以“专”求精、求准。加快算力网建设,统筹已有算力,推进超算向智能化发展。发展高效低碳的AI基础设施,包括算力平台、数据中心等。

  生成式AI治理同样需要合作。他建议,在国际上,维护联合国在全球治理中的核心,凸显我国积极落实UNESCO人工智能伦理建议,不仅是AI技术与应用大国,而且是AI治理的先行者、示范者。在国内,形成跨行业、跨所有制、跨地域的产品服务提供者、使用者、维护者、管理者等多元共治的格局。

  建议加强科技伦理前瞻性研究,提高风险预见能力

  中国科学院战略咨询研究院研究员、国家科技伦理委员会委员李真真表示,现代科学每一个激动人心的突破和革命性进展,无不引发伦理争议或者忧思。现代科学一再面对社会伦理的“拷问”。同时,不同层次的伦理往往因为文化、价值观和利益的差异导致冲突,比如不同国家在应对气候变化问题上采取不同的态度和行动,又如很难组织使用新的生物技术来制造人工生命,甚至“超级婴儿”。

  她说,伦理研究可以创造对话平台,为防范科学技术被滥用或者误用提供治理工具和方案。伦理问题的研究和讨论也有利于政策和法律的及时跟进。“当前伦理已经成为国际科技竞争的重要方面,要成为世界科技强国,不仅要站在科学技术的制高点,而且要立于伦理道德的制高点。在国际伦理规制方面贡献中国思想和智慧。”

  针对中国科技伦理治理体系建设,李真真建议,要加强科技伦理前瞻性研究,弥补目前伦理研究水平不高、科技领域和人文社科存在鸿沟两个短板;提高风险预见能力和水平;加强伦理影响评估。

  她认为,当科学研究进入“无人区”,现有伦理规制是否能保证研究在不触及红线的前提下为前沿科学研究护航,成为亟待解决的问题。“当科研进入前沿突破阶段,伦理规制可能存在空白,同时,现有伦理规制也可能成为新兴科技发展的限制性因素,政策僵化成为治理的一大难点。”

  李真真建议,对于伦理敏感度高的科学研究,可以通过一套有效的商谈机制和透明的审批程序,让伦理成为解决冲突和疏通治理困境的渠道。

  新京报记者 张璐

  编辑 刘梦婕 校对 刘军

0
相关文章