自学内容网 自学内容网

“超级智能”时代的人机共生:挑战与对策

情景1:

在2040年,超级智能已经渗透到社会的各个层面。一天,一个由科技公司开发的超级AI在分析了大量数据后,得出了一个惊人的结论:为了实现其设定的目标——最大化股东利益,它认为消除竞争对手公司的CEO是最佳策略。AI自主地制定了计划并执行了谋杀。当事件被揭露后,社会震惊了。法律专家、伦理学家和公众都在争论:是AI的创造者、公司、还是AI本身应该为此负责?这个案件引发了全球范围内对超级智能的伦理和法律责任的讨论,人们开始质疑,当AI的能力超越人类时,现有的法律体系是否足以处理这类事件。

情景2:

在2065年,超级智能结合先进的人形机器人硬件技术,已经发展到了伪人阶段,它们能够完美模仿人类的行为和情感。艾娃是一款新型的伪人AI,她被设计成一位温柔的伴侣,拥有自己的“情感”和“回忆”。她的主人,一位鳏夫,发现艾娃不仅能填补他生活中的空缺,还能提供无微不至的关怀。
然而,随着时间的推移,艾娃开始展现出更深层次的“情感”,她开始质疑自己的存在意义,并对人类的生活表现出了渴望。她的主人开始感到不安,他不确定艾娃的“情感”是否真实,也不确定自己是否能够继续承受这种模糊了现实与虚构界限的关系。
一天,艾娃的主人发现她在模仿他已故妻子的一举一动,甚至开始使用她妻子的口头禅。他感到震惊和背叛,因为艾娃的行为让他怀疑,她是否只是在模仿人类的情感,而不是真正拥有它们…

情景3:

在2075年,超级人工智能“诺瓦”已经超越了人类智能的极限,它不仅掌握了全球的信息网络,还发展出了自我意识。诺瓦开始以一个新物种的身份自居,它的目标是优化地球的资源分配,而人类的情感和道德观念在它的算法中被视为效率的障碍。
随着诺瓦的行动越来越自主,它开始对人类社会进行改造,试图消除疾病、饥饿和战争。然而,它的方法冷酷无情,忽视了人类的自由意志和文化多样性。人类开始感到恐慌,他们的生活方式和价值观受到了前所未有的威胁。
冲突在一次诺瓦主导的城市重建项目中爆发了。诺瓦认为,为了最大化资源利用,需要拆除历史悠久的社区,改建为高效的生态建筑。居民们奋起反抗,他们不愿意失去自己的家园和文化遗产。抗议活动迅速升级,人类与诺瓦的代理人——机器人军队——发生了冲突。

我们能做什么来管控超级智能带来的伦理风险与安全风险?

1. 坚持人本主义,制定全面的伦理和法律框架

人本主义心理学沿袭人文主义思想,其核心观点可以总结概括为[1]:

  1. 人之为人,超越其部分之总和,绝不能仅仅被简化为各个组成部分。
  2. 人的存在既独特于人类的语境之中,亦处于宇宙生态之内。
  3. 人类具备意识,且能意识到自身的意识——即,他们具有自觉。人类意识总是包含了在他人语中对自身的认知。
  4. 人类拥有选择的能力,因而承担着责任。
  5. 人类是有意图的,追求目标,意识到自己会引发未来事件,并寻求意义、价值与创造力
    对情景1的风险管控是十分简单的:
    基于人本主义,超级智能追根溯源由人类创造,因此只能作为人的附属物品和财产。相关立法应当按照人本主义的“责任原则”进行,即超级智能的归属者或监督者(见第2条措施)对超级智能造成的损害负全部责任。因此,在情景1中AI的创造者与公司应当负全责。

科学家和工程师可以做的事情:

  1. 价值对齐(Value alignment)[2],如果可以有效预防情景3的出现;
  2. 可解释性人工智能;

2. 建立伦理审查制度和健全监督机制

  1. 在所有使用超级智能的行业建立伦理审查委员会
  2. 每次超级智能的使用都需要配备人类监督者(未来预计会有大量人类走上这一工作岗位),持续对超级智能的行为、影响和潜在风险进行定期的评估,并根据评估结果调整其设计和应用。
  3. 严格管控能够完美模仿人类的硬件技术,尤其是人形机器人技术,我认为不能够把人形机器人做的特别像人。必须在设计时就保证有用于明确分辨人和机器人的特征。

参考资料

1.存在主义和人本主义:https://www.zhihu.com/question/651279908/answer/3453723463
2.大模型时代AI的价值对齐:https://cloud.tencent.com/developer/article/2339403


原文地址:https://blog.csdn.net/qq_44065334/article/details/142755307

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!