AI哨所|外媒:强大AI需“超智能”监管 这两种制度或可一试

凤凰网   2023-05-08 13:46:07


(资料图片仅供参考)

凤凰网科技讯 《AI哨所》北京时间5月8日消息,ChatGPT的横空出世已经让人工智能(AI) 的监管提上日程。外媒周日发表观点文章称,强大的AI需要有“超智能”(superintelligent)的监管。

AI监管已提上日程

文章称,强大的AI系统可以为社会带来巨大好处,并帮助人类解决一些世界性难题。例如,机器学习模型已经在诊断疾病、加速科学研究、提高经济生产率,以及通过优化电网的电流来减少能源使用等方面发挥了重要作用。不过,如果这些好处因为AI遭到强烈反对而受到损害,那将是一场悲剧。但正如“AI教父”杰弗里·辛顿(Geoffrey Hinton)上月从谷歌辞职时所警告的那样,随着AI技术在不公平歧视、虚假信息和欺诈等领域的滥用成倍增加,危险也越来越大。

因此,各国政府必须迅速采取行动,适当和成比例地监管这项技术。但是,如何做到这一点将是人类这个时代面临的最大管理挑战之一。机器学习系统可以部署在数百万个用例中,无法简单分类,可能会给监管机构带来许多问题。这种快速发展的技术也可以大规模地以分散、无形和无处不在的方式使用。但令人鼓舞的是,世界各地的监管机构终于开始着手解决这些问题。

凤凰网科技 《AI哨所》了解到,文章指出,解决AI监管问题的第一步是科技行业本身就透明度、问责制和公平达成一致并实施一些通用原则。例如,企业永远不应该试图拿聊天机器人假冒人类;第二步是所有监管机构在就业法、金融和消费者市场、竞争政策、数据保护、隐私和人权等领域,修改现有规则,以考虑AI带来的具体风险。第三步是政府机构和大学深化自身的技术专长,以降低被产业俘获的风险。

除此之外,人类还应该考虑对AI制定两种总体监管制度,即使单独一种都不足以应对挑战的规模。一种是基于预防原则的制度,这意味着在一些关键的、生死攸关的领域,如医疗保健、司法系统和军队,使用的算法在使用前需要预先批准。 这可能会以与美国食品和药物管理局大致相同的方式运作,后者在药物上市前进行筛选,并拥有更广泛的职责来保护和促进公众健康。

第二种更灵活的模式可以基于“意外治理”,就像航空业一样。虽然这听起来令人担忧,但在过去几十年里,它在提高航空安全标准方面发挥了极其有效的作用。一旦发现故障,国际航空当局有权要求所有飞机制造商和航空公司做出改变。当在面向消费者的AI模型(例如自动驾驶汽车)中发现有害缺陷时,可以使用类似的方法。

文章称,多位领先的行业研究人员呼吁暂停开发先进的生成式AI模型。但是,除非能够建立更清晰的管理机制,否则暂停是毫无意义的。就连科技行业也承认,它现在需要更清晰的行业规则,必须与政府和民权组织建设性地合作,帮助制定这些规则。毕竟,如果安装了有效的刹车装置,汽车在转弯时可以开得更快。凤凰网科技《AI哨所》对此将持续关注。(作者/箫雨)