人工智能中的中国房论

当我们问的时候,’ 人工智能(AI)可能吗 ?’ 我们真的问 “我们能在计算机中创造意识吗” ?

null

Chinese room的论点认为,一个程序不能赋予计算机“思维”、“理解”或“意识”,无论该程序如何智能化或人性化地使计算机运行 维基 ]

1980年,约翰·塞尔认为 图灵测试 无法用于确定“ 机器是否被认为和人类一样聪明 ”. 他辩称,任何机器 伊丽莎 拦挡 仅仅通过操纵他们不了解的符号就可以轻松通过图灵测试。如果不理解,他们就不能被描述为“ 思考 “在同样的意义上,人们也会这样做。

配置

约翰把自己(而不是机器)想象成一个非中国人坐在房间里,与房间外的另一个中国人隔离,试图交流。他得到了一份汉字清单和一本说明书,详细解释了汉字串(序列)的形成规则,但没有给出汉字的含义。这意味着他有一本带有英文版计算机程序的书,以及足够的纸张、铅笔、橡皮擦和文件柜。

在这个思维实验中,“中文室”里的一个人被从房间外传来的问题传递给他,并查阅图书馆的书籍来制定答案

现在,他收到了所有通过门上的一个槽用中文写的信息。他将根据程序指令处理所有符号,并生成汉字作为输出,如:

  • 如果他发现像这样的中国符号♍, 他返回符号♓
  • 如果他发现像ԪԘ这样的中国符号,他会返回symbolԈԂ

实际上,指令手册包含了很多规则,其中包含输入符号和各自的输出符号。他只需要找到输入的中文符号,并返回相应的中文符号作为输出。 现在,争论继续下去,一台计算机(机器)就像这个人一样,它只会遵循指令书(程序)中给出的规则。它既不理解给出给它的问题的意义,也不理解自己的答案,因此不能说它在思考。 事实是,内人不懂中文,但他仍然能够用中文与外人完美地沟通。

比较 约翰 有了图灵测试中的机器,机器可能会有包含问题和答案的巨大数据库集合。当询问者提问时,机器只是在数据库中定位问题,并将相应的答案返回给询问者。整个场景似乎是人类在返回答案,而不是机器。

因此,配置中的机器无法理解这些问题和答案,而没有“ 理解力 “(或” 意向性 “),我们无法将机器的功能描述为” 思考 “而且,既然它不思考,它就没有 介意 “就像这个词的正常意义一样。因此,我们不能认为机器是智能的。

参考: https://en.wikipedia.org/wiki/Chinese_room

本文由 Shubham Bansal .如果你喜欢GeekSforgek,并想贡献自己的力量,你也可以使用 写极客。组织 或者把你的文章寄到contribute@geeksforgeeksorg.看到你的文章出现在Geeksforgeks主页上,并帮助其他极客。

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享