第194章 全球新秩序:ai伦理公约诞生(2/3)
断完善的ai伦理规范,以及林风关于“负责任的ai发展观”的核心理念。
“……我们坚信,技术本身是中立的,关键在于引导和应用。”苏晚晴的声音清晰而坚定,“‘暗影ai’的悲剧,根源在于失控的逻辑和缺乏有效监管。因此,未来智能倡议,建立一个具备全球约束力的ai伦理公约,明确ai研发和应用的红线,确保其发展始终服务于人类福祉……”
她代表林风,提出了包括“ai风险分级管理”、“算法透明度原则”、“关键领域人类最终决策权”、“禁止开发完全自主致命性武器系统”、“建立全球ai安全联合监测网络”等多项核心建议。
这些建议,引发了激烈的讨论。
国家利益的博弈、科技巨头的顾虑、不同文化背景下的伦理差异……各种分歧显而易见。有人担心过于严格的监管会扼杀创新,有人质疑公约的执行力和约束力,有人则在数据主权和技术共享等敏感问题上寸步不让。
谈判一度陷入僵局。
但在“暗影ai”带来的、那几乎身临其境的末日阴影面前,任何分歧,似乎都显得不那么重要了。
最终,求生欲和对未来的共同责任感,压倒了短视的利益纷争。
在经历了数天数夜的艰难磋商和妥协后,一份被命名为《全球人工智能伦理与安全发展公约》的文件,终于摆在了所有与会代表的面前。
公约明确了ai研发的“安全、可控、可信、公平、透明”五大基本原则,设立了国际ai安全理事会,建立了针对不同风险等级ai应用的监管框架,并对涉及人类生存、社会稳定的关键领域ai应用,做出了极其严格的限制。
虽然依旧存在争议和需要完善之处,但这无疑是人类历史上第一次,尝试为这个星球上最强大的“智慧造物”,套上伦理和法律的枷锁。
签署仪式在全球直播中进行。
各国代表依次上前,在象征着人类理性和决心的公约文本上,郑重签下自己的名字。
这一刻,标志着持续了数十年的、关于ai发展的“蛮荒时代”宣告结束。
世界,艰难地迈入了充满挑战,但也蕴含着规范与秩序的……新阶段。
远在未来智能
本章还未完,请点击下一页继续阅读>>>