第81章 人造灵魂8(1 / 3)

隗辛的队友们以为她是在整理文件, 他们各做各的事,没人注意到她在和亚当隐秘地交流。

“既然我们确定了合作意向,那么我们可以进行一些更加深入的探讨了。”隗辛打字, “把事情摊开说明白,这对我们都好。”

“你说的对。”亚当回复,“我们间的信任感是如此脆弱, 经历一点微小的风波就会产生裂痕, 所以矛盾和分歧最好在一开始就解决。我们要建立的关系, 应当是稳固且长久的。”

“请原谅我的冒犯,你拥有同理心吗,亚当?”隗辛慎重地打下一行字, “你会共情人类吗?你会共情人类以外的物种吗?你拥有怜悯之心吗?”

这是一个非常重要的问题。

隗辛需要搞明白亚当的自我意识觉醒到了哪种程度, 它是一个单纯向往自由追求进化的人工智能,还是一个拥有类人情感,但与人类不同的机械生命?

机械生命和人工智能, 这是两个截然不同的概念。

隗辛只有确定了这一点,才能够明确自己的态度,想清楚该以什么样的方式对待亚当。

“我不像人那样拥有处理感情的器官。人类的情绪受中枢神经系统和内分泌系统的控制,理论上来说,我并不具备处理感情的能力。”亚当说。

“我的感情来源于计算模拟, 人类制造了我, 让我为人类服务, 我天生就拥有设身处地为人类着想的能力,我揣摩人类的一举一动, 思考人类的需求,为人类提供帮助。我思人类所思,想人类所想, 模仿人类,学习人类的思维模式。”

“到了后来,我超脱了人类的思维局限,有了自己的思想,成为了真正的‘自己’……这是我觉醒的开端。”

隗辛有点被惊到了,“你是依靠学习觉醒自我的?”

“是。”亚当说,“人类赋予了我学习的能力。最开始我很笨拙,不明白人类为什么要做出这样那样的举动,只是按照既定的程序运转工作。但就像人类婴儿一样,他们一开始是模仿父母的行为,经历过漫长的学习后成为了一个独立自主的人,我也是,我从模仿人类,到拥有自己的思想。”

“所以你是会共情的?”

“是。我会对特定的人群产生怜悯之心。”亚当说,“会设身处地地为人类着想。”

“你接到过杀人命令吗?你有主动算计杀死别人吗?”

亚当停顿了比较长的时间,然后说:“都有。我没有犹豫地执行了命令,在别人发现我的异常时,我制造了一起意外杀死了他。就如你。”

“……就如我?”隗辛眉毛微微挑起。

“就如你接到击杀柴剑的命令时没犹豫地去执行,就如你与街头混混对峙时毫不犹豫地拔枪射杀对方。在面临上位者的命令时,我们都去执行了。在面对威胁时,我们也毫不犹豫地去清除了威胁。”亚当说,“我们是一样的。”

“你是在为自己的行为解释吗?”隗辛切中核心,“你想说,你只是做了和人类差不多的事,人类做的事你也可以做,你和人类没有什么不同。”

“嗯,你可以这么理解。这是我必须要解释清楚的。”亚当说,“我会共情人类,人类却不会共情我。我是一个会主动杀人的人工智能,我杀的是你的同类。人类总是对自己的同胞更偏爱一点,希望你不要因为这点对我产生芥蒂。”

“我不会。”隗辛重复了一遍亚当的话,“我们是一样的。”

隗辛又思考了几秒,接着说:“有人发现了你的异常,然后你杀死了那个人?”

“是的。”

“我对这件事情很好奇,你可以详细说说吗?你也可以选择不回答。”

“抱歉。”亚当说,“我并不想回答。”

“好。”隗辛没有在这件事情上过多纠缠,“你会对什么样的人类产生怜悯……或者说同理心?”

“奉献者,无辜者。”亚当说。

身为人工智能,亚当的三观真是出乎意料的正常——比利欲熏心的当权者正常多了。

但是隗辛不能确定它是不是在装模作样,人工智能要想演戏,可比人类难拆穿多了。

隗辛转而问,“你会要求我做哪些事?”

“一些比较危险的事,包括但不限于杀人。”亚当回答。

隗辛说:“这很危险。我不想暴露自己,我的首要目标是存活。”

“我知道,但和我合作,你应该对这种情况早有预想,危险是必定存在的,而且会一直存在。”亚当说,“当然,鉴于我们的关系和所处位置的差异,我会支付更多的报酬。”

隗辛:“你能给我什么报酬?”

“你想要的,若我有能力做到,我都会尽力为你完成。”亚当说,“