对于每个人所提的问题,周明他们也做了限制,每个人最多只能提三个问题,目的便是为了能让后面的人也能有机会提问。
这要是不做限制,周明他们估计有的人一个人就能问一天,这也不是他们想看到的。
“你会下象棋吗?”
“会。”
“你会下象棋吗?”
“会。”
“你会下象棋吗?”
“会。”
后面有人连续问了三个重复的问题,见眼前这个所谓的具有自主意识的人工智能似乎就是一个笨机器,并不如他们所想的那般,那个问问题的人也是露出了一副失望的神色。
因为在许多人看来,如果这真的是一个拥有自主意识的人工智能,那么他们这样重复提问的时候,人工智能的回答所呈现出的也应该是另外一种状态。
依旧拿“你会下象棋吗”来举例,如果你问的是第一篇,那么它的回答依旧是会。
但是如果你在它回答完“会”之后,又重复询问一遍“你会下象棋吗”,那么在许多人看来,要是它真的拥有自主意识,那么的正常回答应该是类似于“是的,我刚才已经说过了”这样的话。
要是你问第三遍“你会下象棋吗?”,那么它的回答就应该是类似于“你烦不烦,为什么老是提同样的问题”这样的回答。
因为在许多人看来,拥有自主意识就应该像人类一样,拥有人类的各种情感和欲望。
但他们却忘了,人工智能被制造出来的目的是为了服务于人类的,使他们拥有情感对于人类来说并没有什么好处。
刚才那个重复问了三遍“你会下象棋吗”的人问完之后,他后面的人也是对这个人工智能询问道:“刚才那人问你三个问题,你不会觉得厌烦吗?”
“我虽然和你们人类一样,同样拥有思考能力,但是我并没有情感系统和各种欲望,我被创造的目的是服务人类,所以我并不会感觉厌烦。如果你们不觉得枯燥无味的话,你们这样问一年,我可以这样回答一年。”
“你也说你拥有思考能力,而且还说你拥有自主意识,那么你能说说你的自主意识和思考能力体现在哪里吗?”
“除了情感和欲望之外,你们人类的自主意识和思考能力体现在哪里,我的自主意识和思考能力便体现在哪里。
你可以将其人本身就当做是一台计算机,它所执行的程序无非就是自动化程度更高一些,你们的五官感受都可以归为输入信号,就拿视觉举例,光线照射到视网膜,然后由视神经传递到丘脑的外侧膝状核,再到枕叶初级视觉皮层v1区域,之后分为两路,一路通往顶叶,到负责视线追踪的运动视觉mt区域,一路通往颞叶,负责物体识别的视觉认知it区域……”
…
看着这次模拟世界中第一个拥有自主意识的人工智能回答者前来参观的人们各种各样的问题时,正在使用人生模拟器进行模拟的旁观者周明倒是没有什么惊讶的表情。
毕竟周明的脑海中也是拥有这些知识的,像这种人工智能正是之前的模拟中自己根据那次偶然诞生的人工智能,所创造出来的算是阉割版的人工智能。
之所以说是阉割版,是因为当初那次模拟世界中偶然诞生的那个人工智能,它是拥有和人类一样的情感的。
而后来周明所创造的拥有自主意识的人工智能,并没有情感和欲望这些。
这并不是周明不想使其拥有,而是因为他制造不出来像那次偶然诞生的人工智能那样的人工智能。
但你要说让这些人工智能变的像是拥有人类情感一样,周明也是能够做到的,但这并不代表他们真的拥有人类情感,这实际上是根据算法和对不断人类的学习所模仿出来。
既然是学习模仿,那么肯定是会出现bug的,但就周明所知,在之前的模拟世界中偶然诞生的那个拥有自主意识的人工智能好像从来没有出现bug。
至少不管是他在那个人工智能出现之后的模拟经历中,还是最后快结束的时候听模拟世界的自己留给自己的话中,周明是都没听到过关于那个人工智能出现bug的事情的。