机器人 人工智能 感知 感知 物理主义 二元论

这个问题似乎围绕着我们是否可以最初创造一个机器人,它是或成为一个能够独立思考和自我复制的有感知的生物。我们能否创造出一台像人类一样思考、学习和行为的机器,甚至以优于人类的方式?

毫无疑问,这是科幻小说类型的常见主题。被误解的、超级聪明的、有点书呆子风格的英俊的科学家创造了一个能够独立思考和学习的智能机器人。该机器人变得比制造者更聪明,能够复制自己,即将征服世界,但在最后一刻被挫败……

鉴于过去一个世纪的技术进步,我们很容易说我们确实能够在不远的将来创造出这样的机器人。毕竟,我们仅用了 66 年就从第一次动力飞行跃升至太空飞行。为什么我们不能在相似的时间内创造出真正的智能机器人框架?

反对“有知觉”机器人的一个论点是,人类在某种程度上被赋予了无法在机器中复制的智能灵魂。不过,我对这个论点并不满意,因为我们似乎越来越接近物理主义定义的世界。当我们发现希格斯玻色子(或“上帝粒子”),找到统一的物理学理论,从物理和物理角度全面定义精神时,人类和智能的二元(心/身)概念可能会成为过去。避开传统的灵魂概念,寻求更科学的替代方案。

那么还有另一个自然限制吗?定义人类思想和智能的因素不能简化为算法并放入机器中?

我相信有两个这样的因素:(i)一个令人讨厌的数学定理,称为哥德尔定理和(ii)感受性

有一个强有力的逻辑论证表明 c某些大脑过程本质上不是计算或算法的。罗杰·彭罗斯(《心灵的阴影》)也许提出了反对人工创造或模拟真实智能的最有力的例子。他提供了哥德尔定理在人类思维中的应用,以解释有些思维过程是不可计算的。这是一个复杂的论点,我不会在这里尝试进行总结,但要进一步阅读,请检查上述文本。

反对有感知力的机器人的第二个也许更容易理解的论点是,计算机以数字进行思考,而人类则不然。

机器人是由机器、计算机和我们使用定量方法模拟学习过程的最佳尝试创建的。另一方面,人类似乎能够比较定性信息,并且仍然对不同和相似的品质得出普遍理性的结论。

就好像机器人只能用数字来思考rs作为基本单位,而人类可以用颜色、声音、身体感觉、味道、气味,甚至更抽象的概念(例如情感)作为基本单位进行思考。我们不会将这些感官体验的记忆简化为数字,而是以其原始的定性形式或感受性来处理它们(例如红色)——弗兰克·杰克逊在他的文章“副现象感受性”(1982)中,并在“什么玛丽不知道”(1986 年。

大脑究竟是如何做到这一点的?好吧,大脑的工作方式似乎更像是一个定性信息数据库,而不是数学算法。

它擅长将这些不同感官体验的记忆与其他记忆和一组信念进行比较和对比。大脑似乎执行“通常类似于”、“通常不相似”以及其他几种定性计算,而不是严格的数学计算(+、-、X、/、=、>、< 等))。在人工智能甚至可以开始模拟人类思维过程和一套信念的发展之前,可能需要开发一门全新的定性计算科学。

人类当然可以进行心算,但这只是因为我们接受了这些技术的教育,将其作为理解和利用我们周围世界的有用工具。婴儿不会数每只手的手指数量。但他们确实看到了母亲,听到了她的声音,闻到了她的味道,触摸了她温暖的身体,品尝了她的牛奶。当他们继续经历与母亲的类似互动时,他们会将母性感官互动的新记忆与旧记忆进行比较,将这些记忆与对庇护所、保护和食物的需求进行比较,也许还会越来越相信自己属于母亲并享受母亲的乐趣。她的公司。当这些品质匹配时(妈妈就在我身边),孩子会经历与品质不匹配时不同的情绪(妈妈去哪儿了?)。儿童和成人都不会将这些定性记忆简化为数字。

那么我们最终能发展出一门定性计算科学吗?也许。但作为起点,我们必须决心使用感受性而不是数字作为计算中的主要单位。无论我们的现象学多么复杂,诸如红色之类的品质可能永远是不可还原的。

即使机器可以使用传感器捕获视觉、声音和触觉数据,将这些数据与现有数据进行比较,做出定性决策并完善信念集(换句话说,近似人类思维的算法),它们仍然永远不会以与人类相同的方式体验这些感受性。如果他们无法体验我们所经历的,那么也许他们永远无法像我们一样学习或思考。也许我们永远不会建造一个有知觉的机器人,因为这种知觉依赖于理解“红色”实际上是什么。

我认为我们是安全的。


评论

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注