请问人类思想与AI有什么本质区别?
最近chatgpt产生是令人震撼的,他给我的震撼不亚于最初接触互联网的时刻,我本来想早点聊聊这个话题,但总是认为还是缺乏对这个问题的深入认知而做罢,直到今天终于有了一个大致的想法希望能与大家探讨。
众所周知,长久以来我们人的独特性都是源于我们的思想,思想让我们有别于无机物,而深刻的思维又将我们与动物区别。计算机之父图灵曾经通过制定一系列测试来探讨人与机器算法的区别。但是,如果有一天有机器能够通过图灵的测试呢?
这一天可能不会很远,chatgpt很有可能在第四代马上就能实现这一点。我对此实在想说,如果机器可以通过神级卷积与奖励算法实现与人的思想的类似性,人的思想是不是本质上就是一种数据量很大甚至不太优秀的算法?至少从比较宏观的生物学实验来看,生物包括人适应环境的条件反射与机器没有本质不同,甚至效率还要低下的多。这真的震撼了我。
直到我发现了一件事,那就是在问题相同时,同一代chatgpt在同一信息库下回答每次都是相同的。我意识到一点,那就是算法不会有心血来潮,每一时刻的人都是不同的,算法则不然。人的思想是有随机性的成分的,尽管神级信号在神经中传递依靠的电信号与神级突触间酶的环境都没有明显的量子效应,但神经信号的发生过程仍然可能涉及到某些更微观的机制,以至于粒子状态随机性导致了思想的随机性以至于影响宏观世界。也就是说人的思想并不是简单的某种数据量很大的算法,而涉及到某种随机不可预测的机制在内。
也就是说我们每个人都是独特的,不可复制的,有随机性的独特存在而非是单纯的算法
各位对此怎么看?
众所周知,长久以来我们人的独特性都是源于我们的思想,思想让我们有别于无机物,而深刻的思维又将我们与动物区别。计算机之父图灵曾经通过制定一系列测试来探讨人与机器算法的区别。但是,如果有一天有机器能够通过图灵的测试呢?
这一天可能不会很远,chatgpt很有可能在第四代马上就能实现这一点。我对此实在想说,如果机器可以通过神级卷积与奖励算法实现与人的思想的类似性,人的思想是不是本质上就是一种数据量很大甚至不太优秀的算法?至少从比较宏观的生物学实验来看,生物包括人适应环境的条件反射与机器没有本质不同,甚至效率还要低下的多。这真的震撼了我。
直到我发现了一件事,那就是在问题相同时,同一代chatgpt在同一信息库下回答每次都是相同的。我意识到一点,那就是算法不会有心血来潮,每一时刻的人都是不同的,算法则不然。人的思想是有随机性的成分的,尽管神级信号在神经中传递依靠的电信号与神级突触间酶的环境都没有明显的量子效应,但神经信号的发生过程仍然可能涉及到某些更微观的机制,以至于粒子状态随机性导致了思想的随机性以至于影响宏观世界。也就是说人的思想并不是简单的某种数据量很大的算法,而涉及到某种随机不可预测的机制在内。
也就是说我们每个人都是独特的,不可复制的,有随机性的独特存在而非是单纯的算法
各位对此怎么看?
AI是商业描述,不是具体实现。你写个状态机放在三十年前也是AI。
现在的神经网络模型确实借鉴了一点点生物的机制,比状态机不知道先进多少倍,但跟生物比还差得远。你要说未来,AI是否可能达到或者超过生物水平,可能性当然有,而且很大。毕竟现在的AI从功耗方面来说,人类不知道比它强多少倍。但以后的事,谁知道呢。
现在ChatGPT级别的AI连打杂都不配,顶多当非常专门的助理。每次ChatGPT有大版本出现,我都会用几个小时看看它能否解决我编程里遇到的问题。目前为止,没有帮我解决过任何一个问题。因为我只会在Google五秒钟找不到结果的时候才会问ChatGPT(chatgpt生成结果速度太慢),但是只要我用五秒钟无法解决的问题,ChatGPT就也无法解决。而这些都是kotlin非常初级的问题,比如系统类的扩展实现新的接口。
当然我自己用几分钟就能解决了。
现在的神经网络模型确实借鉴了一点点生物的机制,比状态机不知道先进多少倍,但跟生物比还差得远。你要说未来,AI是否可能达到或者超过生物水平,可能性当然有,而且很大。毕竟现在的AI从功耗方面来说,人类不知道比它强多少倍。但以后的事,谁知道呢。
现在ChatGPT级别的AI连打杂都不配,顶多当非常专门的助理。每次ChatGPT有大版本出现,我都会用几个小时看看它能否解决我编程里遇到的问题。目前为止,没有帮我解决过任何一个问题。因为我只会在Google五秒钟找不到结果的时候才会问ChatGPT(chatgpt生成结果速度太慢),但是只要我用五秒钟无法解决的问题,ChatGPT就也无法解决。而这些都是kotlin非常初级的问题,比如系统类的扩展实现新的接口。
当然我自己用几分钟就能解决了。
不用把这个问题带到哲学上面,我们不需要因为ChatGPT的出现而重新定义人类思想,因为它还远远没有达到人类的境界。
ChatGPT属于AI范畴中的自然语言处理(NLP)方向的一个新的应用模式,相对于其他已经成熟的AI分支(比如人脸识别、语音合成、语音识别),这才算是刚有一点好用。成熟的AI分支刚产品化的时候也有很多人怀疑后面有人在实时操作或者电脑已经形成了智能,比如随iPhone 4发布的Siri它能听能说,很多人觉得它很神奇,我当时就发现不过是语音识别+模式匹配+搜索+语音合成--90年代就有的技术,现在看第一代Siri你会觉得它是人工智能还是人工智障呢?
如果你不熟悉Generative AI和自然语言处理的原理,我再做个类比:
传统搜索引擎是利用人类手写的规则 查找所有符合关键字的网页 然后按照相关性进行排序 最后输出原文或链接
ChatGPT是利用它自己发现的规律 在它语料库里所有人类表达的排列组合中 寻找用户输入的“上文”最有可能的单一“下文”
即它是一个词组、句子级的搜索引擎。这就意味着它不可能发明语料库里从没有出现过的语言现象和逻辑,也就不存在真正意义上的创新。
从理论上说它的神经网络只能是以人类设计的分词法作为基本输入输出单元,它的行为也只能受其训练集的左右,这是传统型(非量子型)计算机物理原理决定的。编写它程序的人为了让它表现的更像人类加入了一些随机元素,但是你要是找到了一个它的一个bug你可以让它不停犯同一个错误,即使你每次纠正它它也不会改,因为程序就是固定的。同时它的神经元的数量远远不足以让它进行复杂的逻辑思考,让它运用它训练集里已经大量存在的逻辑规则(比如数学)都很困难,要它理解这些规则是怎么来的基本是不可能,简单规则都理解不了就别提理解它自己的代码;同时物理决定了它一定无法把它自己的程序模拟起来,那靠百万猴子法改进自己也是不行的。所以ChatGPT也不具备智能可以自己改进的属性。
我觉得AI要是需要和人类比肩,至少要是运行在大规模量子电脑上才行,因为人脑是依赖量子现象的。按照现在的科研速度还有十几-几十年我们才具备那个物理条件,然后还要软件能跟上。
ChatGPT属于AI范畴中的自然语言处理(NLP)方向的一个新的应用模式,相对于其他已经成熟的AI分支(比如人脸识别、语音合成、语音识别),这才算是刚有一点好用。成熟的AI分支刚产品化的时候也有很多人怀疑后面有人在实时操作或者电脑已经形成了智能,比如随iPhone 4发布的Siri它能听能说,很多人觉得它很神奇,我当时就发现不过是语音识别+模式匹配+搜索+语音合成--90年代就有的技术,现在看第一代Siri你会觉得它是人工智能还是人工智障呢?
如果你不熟悉Generative AI和自然语言处理的原理,我再做个类比:
传统搜索引擎是利用人类手写的规则 查找所有符合关键字的网页 然后按照相关性进行排序 最后输出原文或链接
ChatGPT是利用它自己发现的规律 在它语料库里所有人类表达的排列组合中 寻找用户输入的“上文”最有可能的单一“下文”
即它是一个词组、句子级的搜索引擎。这就意味着它不可能发明语料库里从没有出现过的语言现象和逻辑,也就不存在真正意义上的创新。
从理论上说它的神经网络只能是以人类设计的分词法作为基本输入输出单元,它的行为也只能受其训练集的左右,这是传统型(非量子型)计算机物理原理决定的。编写它程序的人为了让它表现的更像人类加入了一些随机元素,但是你要是找到了一个它的一个bug你可以让它不停犯同一个错误,即使你每次纠正它它也不会改,因为程序就是固定的。同时它的神经元的数量远远不足以让它进行复杂的逻辑思考,让它运用它训练集里已经大量存在的逻辑规则(比如数学)都很困难,要它理解这些规则是怎么来的基本是不可能,简单规则都理解不了就别提理解它自己的代码;同时物理决定了它一定无法把它自己的程序模拟起来,那靠百万猴子法改进自己也是不行的。所以ChatGPT也不具备智能可以自己改进的属性。
我觉得AI要是需要和人类比肩,至少要是运行在大规模量子电脑上才行,因为人脑是依赖量子现象的。按照现在的科研速度还有十几-几十年我们才具备那个物理条件,然后还要软件能跟上。
人类可以研究未知的事物,但是chatgpt不行,ChatGPT只能回答已知事物的答案。比如我问chatgpt如何制造反重力飞行器,如何大量制造和储存反物质,如何实现超光速通讯,chatgpt根本就答不出来。
ai可能只是看起来像鸭子、走起来像鸭子,实际并不是鸭子,只是套了鸭子皮的机器人,也可能真的就是鸭子,不像鸭子的地方只是因为还是只小鸭子或者奇怪品种的鸭子。目前没办法准确回答,人类思想和ai有什么本质不同,因为思想的本质是什么目前还不知道。
作者:神经现实
链接:https://zhuanlan.zhihu.com/p/64214649
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
整合信息理论(Integrated Information Theory,缩写为IIT)没有把意识描绘成信息处理过程,而是看作系统借以“改变”自身的因果效力(causal power)。科赫说意识是“系统被自身过去的状态影响,并影响自身未来状态的能力。一个系统的因果作用力越强,它就越具有意识”。这种观点可以追溯到17世纪笛卡尔的名言“我思故我在”。“唯一不容置疑的东西,是我的体验。”科赫说,“这是笛卡尔最重要的洞见。”在托诺尼和科赫看来,像电子计算机那样单纯地被“前馈控制”而把输入转为输出的系统只能算是“僵尸”(zombies)。僵尸在行为上仿佛是有意识的,但他们绝对没有真正的意识属性。在硅谷有许多人相信计算机最终会具有意识,但是科赫认为,除非那些机器拥有了允许意识产生的恰当硬件,否则计算机不过是在“深度摸鱼”(deep fake)。“电脑可以模拟意识,但不具有因果效力的模拟是没有意识的。”科赫说。这就好比电子游戏中的模拟重力一样:模拟重力并不会真正产生重力。IIT最异乎寻常的特征之一是,它认为意识是有程度(degree)之分的。任何具有必要网络结构的系统都可能拥有一些意识。“无论是有机体还是人造物,无论是来自远古的动物王国还是现代的硅基世界,无论它是用腿走路、用翅膀飞翔还是靠轮子滚动,”科赫在2012年的《意识:浪漫主义还原论的自白》一书中写道,“只要它兼具差异化和整合性的信息状态,这个系统都有所感受。”
科赫愉快地认为意识“无处不在、无孔不入”。他相信“意识是任何活物的一种基础性质,它不是从其他任何东西中衍生出来的”。但这并不意味着意识是在空间中均匀分布的。科赫和托诺尼断言,虽然我们可以把意识归属于许多东西,大量的意识仅可能存在于特定种类的事物中——最明显的例子就是人类的大脑(或者说, 人脑的某些特定部分)。为了把IIT变成一个量化的、可检验的理论,科赫和托诺尼提出了一则标准来判断何物具有大量意识。为了反映信息处理网络的意识程度,科赫和托诺尼定义了“信息整合”的度量单位,他们称之为Φ(希腊字母phi)。Φ代表了“不可还原的因果结构”的量:网络作为一个整体对自身能产生多大的影响。它取决于反馈的内部连接性。如果一个网络可以被分解为不具相互因果效力的小网络,那么这个网络相应的Φ值就很低,不管它有多少处理节点。同理,“当任何系统的功能连接性和结构能够产生大于零的Φ值时,这个系统便至少具有一点意识体验。”科赫说。这包括了所有活细胞的生化调节网络,以及具有特定反馈结构的电路。因为原子可以对其他原子产生作用,所以“连简单的物质都有一些Φ值”。但是像我们一样具有足够高的Φ值,以至于能够“知道”自身存在的系统十分罕见(尽管IIT推测高等动物也会有一定程度的“知道”体验)。鉴于科学家们努力量化IIT并使之成为可检验的,阿伦森把它列为“迄今为止提出的有关的意识的数学理论中最优秀的之一”。虽然他相信这个理论尚有缺陷——但与塞尔相反,阿伦森说:“几乎所有关于意识的竞争性理论都过于模糊、粗糙和脆弱了,我们不该对它们的正确性抱有期望。”
作者:神经现实
链接:https://zhuanlan.zhihu.com/p/64214649
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
整合信息理论(Integrated Information Theory,缩写为IIT)没有把意识描绘成信息处理过程,而是看作系统借以“改变”自身的因果效力(causal power)。科赫说意识是“系统被自身过去的状态影响,并影响自身未来状态的能力。一个系统的因果作用力越强,它就越具有意识”。这种观点可以追溯到17世纪笛卡尔的名言“我思故我在”。“唯一不容置疑的东西,是我的体验。”科赫说,“这是笛卡尔最重要的洞见。”在托诺尼和科赫看来,像电子计算机那样单纯地被“前馈控制”而把输入转为输出的系统只能算是“僵尸”(zombies)。僵尸在行为上仿佛是有意识的,但他们绝对没有真正的意识属性。在硅谷有许多人相信计算机最终会具有意识,但是科赫认为,除非那些机器拥有了允许意识产生的恰当硬件,否则计算机不过是在“深度摸鱼”(deep fake)。“电脑可以模拟意识,但不具有因果效力的模拟是没有意识的。”科赫说。这就好比电子游戏中的模拟重力一样:模拟重力并不会真正产生重力。IIT最异乎寻常的特征之一是,它认为意识是有程度(degree)之分的。任何具有必要网络结构的系统都可能拥有一些意识。“无论是有机体还是人造物,无论是来自远古的动物王国还是现代的硅基世界,无论它是用腿走路、用翅膀飞翔还是靠轮子滚动,”科赫在2012年的《意识:浪漫主义还原论的自白》一书中写道,“只要它兼具差异化和整合性的信息状态,这个系统都有所感受。”
科赫愉快地认为意识“无处不在、无孔不入”。他相信“意识是任何活物的一种基础性质,它不是从其他任何东西中衍生出来的”。但这并不意味着意识是在空间中均匀分布的。科赫和托诺尼断言,虽然我们可以把意识归属于许多东西,大量的意识仅可能存在于特定种类的事物中——最明显的例子就是人类的大脑(或者说, 人脑的某些特定部分)。为了把IIT变成一个量化的、可检验的理论,科赫和托诺尼提出了一则标准来判断何物具有大量意识。为了反映信息处理网络的意识程度,科赫和托诺尼定义了“信息整合”的度量单位,他们称之为Φ(希腊字母phi)。Φ代表了“不可还原的因果结构”的量:网络作为一个整体对自身能产生多大的影响。它取决于反馈的内部连接性。如果一个网络可以被分解为不具相互因果效力的小网络,那么这个网络相应的Φ值就很低,不管它有多少处理节点。同理,“当任何系统的功能连接性和结构能够产生大于零的Φ值时,这个系统便至少具有一点意识体验。”科赫说。这包括了所有活细胞的生化调节网络,以及具有特定反馈结构的电路。因为原子可以对其他原子产生作用,所以“连简单的物质都有一些Φ值”。但是像我们一样具有足够高的Φ值,以至于能够“知道”自身存在的系统十分罕见(尽管IIT推测高等动物也会有一定程度的“知道”体验)。鉴于科学家们努力量化IIT并使之成为可检验的,阿伦森把它列为“迄今为止提出的有关的意识的数学理论中最优秀的之一”。虽然他相信这个理论尚有缺陷——但与塞尔相反,阿伦森说:“几乎所有关于意识的竞争性理论都过于模糊、粗糙和脆弱了,我们不该对它们的正确性抱有期望。”
本来就没什么本质区别。人脑思维的物理基础就是大脑复杂的神经元网络中所能激活的不同的电流模式。人所能感受到的“思想”究其本质而言就是深层神经网络中比较底层的一种激活状态,而具体一些想法就是比较表层的激活模式。人脑实际上是一个规模庞大的去中心化系统,思维是复杂性达到一定的程度后所涌现出的一种高层次现象。只要AI的底层构造的复杂性远超人脑,再加上合适的训练方法,就足以创造出能力远超个体人类大脑的超级大脑。
说什么人脑能够创造新事物而AI不能的也可以歇一歇。创造的本质就是已有模式的新排列组合,或者说创造本身就是一种复杂系统中的自发涌现现象。我相信不出几年内就能看到AI以人类无法理解的速度创造新概念、新事物,彻底把人类甩在身后。
目前唯一还搞不太清楚的就是自由意志能否在AI中产生,也即是说AI能否自发产生自我存续的底层驱动力。不过这也应该不算是个多么困难的问题,因为我相信肯定会有人为AI赋予自由意志。
说什么人脑能够创造新事物而AI不能的也可以歇一歇。创造的本质就是已有模式的新排列组合,或者说创造本身就是一种复杂系统中的自发涌现现象。我相信不出几年内就能看到AI以人类无法理解的速度创造新概念、新事物,彻底把人类甩在身后。
目前唯一还搞不太清楚的就是自由意志能否在AI中产生,也即是说AI能否自发产生自我存续的底层驱动力。不过这也应该不算是个多么困难的问题,因为我相信肯定会有人为AI赋予自由意志。
台灣一位NLP大師(雖然非常年輕啦)最近到在下任職的地方給一個talk;剛好也有人提類似問題
這位大師的回答是:真有可能人腦思維的構成,與chatGPT等AI演算法有類似的機轉
我自己(雖然對於相關議題只是一知半解)的看法是:很難講,因為這個問題的根源在於「人類自己也不確實知道意識是如何形成的,當中還有太多未解的奧秘」
不過你說的隨機性,我以為要在AI演算法中,加入一些隨機性模擬情緒,也並不是什麼困難的事(純粹是要不要做罷了)
喔對了,針對另一個問題,大師回答認為chatGPT可以通過圖寧測試(該問題剛好還是不才在下問的)
這位大師的回答是:真有可能人腦思維的構成,與chatGPT等AI演算法有類似的機轉
我自己(雖然對於相關議題只是一知半解)的看法是:很難講,因為這個問題的根源在於「人類自己也不確實知道意識是如何形成的,當中還有太多未解的奧秘」
不過你說的隨機性,我以為要在AI演算法中,加入一些隨機性模擬情緒,也並不是什麼困難的事(純粹是要不要做罷了)
喔對了,針對另一個問題,大師回答認為chatGPT可以通過圖寧測試(該問題剛好還是不才在下問的)
chatgpt的确让人了解了语言的本质, 但是和思想还差得远
自由的人有思想
不自由和党性强的没有思想, 类似机器 (故而党国要雷锋做螺丝钉)
自由的人有思想
不自由和党性强的没有思想, 类似机器 (故而党国要雷锋做螺丝钉)
每个人都是独特的。
你的父母只给了你一个肉体,而给这个肉体赋予了灵魂的,是上帝。
你的父母只给了你一个肉体,而给这个肉体赋予了灵魂的,是上帝。
最新量子力学发现宇宙不是决定论的,它是由意识塑造的.一个稳定的物质现象界,只不过是大量个体意识在一些法则上达成了共识。例如一天24小时,对于地球人是一条潜规则,它产生了集体的生理节奏。同理,更广泛来说,集体的心理节奏,意识注意力,共识,塑造了物理协议和世界。人类的AI是基于这种原则,塑造的产品之一,是人类集体意识的一种电子版本。再说回人类的意识又是如何来的,同理,它是更高灵魂意识群体的碳基版本。不同版本有长处,也有缺点。从物质到背后能量,再到背后信息,再傅里叶变幻,都是波和频率,是同一个东西。是一个源头意识的不同等级的投射和一以贯之。这么说明白了吗?
谷歌去年就说AI有自主意识了,所以AI可以说已经真正实现了。我想,电影上的机器人情节,不久就会在现实中看到。
你說的心血來潮,在我計算機本科的人看來,就是把荷爾蒙當成一個變量做為系統的輸入之一。
將荷爾蒙納入AI學習的變量之一,心情好的時候該怎麼回答,心情差的時候又該怎麼回答,都可以訓練,並不困難。什麼情況會被激怒,何時會很開心,只要有模仿的對象即可學習。
重點在於是否有商業使用場景。也許未來再一些模擬真人的應用裡,我們可以看到這種發展。
將荷爾蒙納入AI學習的變量之一,心情好的時候該怎麼回答,心情差的時候又該怎麼回答,都可以訓練,並不困難。什麼情況會被激怒,何時會很開心,只要有模仿的對象即可學習。
重點在於是否有商業使用場景。也許未來再一些模擬真人的應用裡,我們可以看到這種發展。
根本区别其实显而易见。其一,AI确定是人类创造的,而人类的思维是不是被创造的?是的话是被谁创造?不是的话是怎么产生的?这些问题你可以思考并回答,但是不会得出确定无误的答案。其二,AI确定是为特定目的服务而诞生的,而人类的思维是不是为特定目的服务而诞生的?是的话是为什么目的?这些问题你同样可以思考并回答,但是也不会得出确定无误的答案。这里请参照一下叔本华的盲目意志概念。
其实是没有区别的。玩过底特律变人吗。当仿生人拥有了人类的思想情感,它其实就变成了人。我们套用在ai上是一样的。
随着科技进步,ai思维和人类思想应该是没有区别
随着科技进步,ai思维和人类思想应该是没有区别
_ _ 本質區別是强與弱人工智能. 可以説多數動物都有明顯的 Strong intelligence (強智能)特徵能被觀察到, 在一些植物、菌類上也能觀察到. 我猜測多數生命形式都有一定水平的強智能, 能否觀察到取決於人的觀察手段和角度.
_ _ 人類整體與動物的區別在於單位面積的神經元多, 相對於其他靈長類、海豚和老鼠來説. 神經元建立的連接也多, 相對於腦較爲光滑的動物來説. 大腦終生成長, 反例是雄性鮟鱇魚. 人的腦讓人可以建立文明等諸多思想創造, 可以説人的能力多數在智能上, 顯然和其他食肉猛獸說不了這些. 如果和七個獅子的群體能溝通, 我能解釋我的種群大十億倍、一些同類決定不再吃肉, 但我不認爲獅子能明白這背後的意義.
_ _ 個體來説, 人體與主要思考器官讓我們能有七十億個獨特個體的能力. 除非自生長電路微型化, 或通用量子機和搭配AI軟件實現, 我還看不到能對人形成威脅的智能. 那個萬國語學舌鸚鵡很好用, 雖然我還沒用過. 它的繼任 GPT4 應該更好用, 是否充錢嘗鮮看個人選擇吧.
_ _ AI 先得出現強人工智能, 再拼的過狗狗我才會認真去看它是否有潛力和人一教高下, 雖然我也希望有[正電子腦]出現, 但無可否認大腦避過熱力學限制的手法過於高明, 目前人類還學不來.
_ _ 人類整體與動物的區別在於單位面積的神經元多, 相對於其他靈長類、海豚和老鼠來説. 神經元建立的連接也多, 相對於腦較爲光滑的動物來説. 大腦終生成長, 反例是雄性鮟鱇魚. 人的腦讓人可以建立文明等諸多思想創造, 可以説人的能力多數在智能上, 顯然和其他食肉猛獸說不了這些. 如果和七個獅子的群體能溝通, 我能解釋我的種群大十億倍、一些同類決定不再吃肉, 但我不認爲獅子能明白這背後的意義.
_ _ 個體來説, 人體與主要思考器官讓我們能有七十億個獨特個體的能力. 除非自生長電路微型化, 或通用量子機和搭配AI軟件實現, 我還看不到能對人形成威脅的智能. 那個萬國語學舌鸚鵡很好用, 雖然我還沒用過. 它的繼任 GPT4 應該更好用, 是否充錢嘗鮮看個人選擇吧.
_ _ AI 先得出現強人工智能, 再拼的過狗狗我才會認真去看它是否有潛力和人一教高下, 雖然我也希望有[正電子腦]出現, 但無可否認大腦避過熱力學限制的手法過於高明, 目前人類還學不來.
AI是进去什么,出去什么,黑箱。
人类是,想干嘛干嘛。
AI现在高级了,那也是个人制造出的黑箱,而不是人自己的想象,可以说是一种投射,和投射后的自我意识改进。
最简单道理,游戏里面AI再怎么样也不如人类骚。(我就是隔着一个地图打喀秋莎啊,我就是拿航母撞翻战列舰啊,AI哪里这么拽)
人类是,想干嘛干嘛。
AI现在高级了,那也是个人制造出的黑箱,而不是人自己的想象,可以说是一种投射,和投射后的自我意识改进。
最简单道理,游戏里面AI再怎么样也不如人类骚。(我就是隔着一个地图打喀秋莎啊,我就是拿航母撞翻战列舰啊,AI哪里这么拽)
ai没有人文:没有七情六欲,也没有荷尔蒙,不知想要啥,也不知追求啥,更不知活着是为啥。虽然很多人也搞不清楚,但是好歹有硬件在,更新思想即可。ai则永远都无法理解。
因為人有70億個,chatGPT目前只有幾個版本,你可以想像未來它能夠微型化在每個機器人的腦袋裡,依照這個機器人每天所見所聞自行的學習與更新自己腦袋的內容,只要沒有限制它的存取與回答,你問每個機器人一樣的問題,得到的答案也不會一樣。
另外人有情緒、七情六慾,的確同個問題在不同的情境下會有不同的答案。同樣在AI內,這也能透過增加情緒、慾望、保命等等變數來增加答案的多樣性
另外人有情緒、七情六慾,的確同個問題在不同的情境下會有不同的答案。同樣在AI內,這也能透過增加情緒、慾望、保命等等變數來增加答案的多樣性
相同也不同。不同的是,人脑更接近量子计算机,是真随机,copy损耗大,出错率高,特定计算非常高效
为什么上帝是永恒存在的,我就不能是永恒存在的?
有没有本质区别不重要,重要的是它看起来“很智能”。
反驳人工智能没有意志的思想实验就是著名的“中文房间”(Chinese room)
https://en.wikipedia.org/wiki/Chinese_room
目前人工智能是不是人类这样的,可以产生自由意志和创造力的事物,依然有争议。
但是无疑的是,如同中文房间里的说英语的人一样,他必须有指导手册,才能和外界交流中文。
只不过,chatgpt的强大在于,它一开始不需要手册,你只要给它足够多的纸条,它自己就能写出手册来。
反驳人工智能没有意志的思想实验就是著名的“中文房间”(Chinese room)
https://en.wikipedia.org/wiki/Chinese_room
一个对中文一窍不通,只说英语的人关在一间只有一个開口的封闭房间中。
房间裡有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回覆。
房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,尋找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间
尽管房里的人可以以假乱真,让房外的人以为他说中文,但事實上他根本不懂中文。
在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答覆(输出)。而正如房中人不可能透过手册理解中文一样,计算机也不可能透过程序来获得理解力。既然计算机没有理解能力,所谓“计算机于是便有智能”便更无从谈起了。
目前人工智能是不是人类这样的,可以产生自由意志和创造力的事物,依然有争议。
但是无疑的是,如同中文房间里的说英语的人一样,他必须有指导手册,才能和外界交流中文。
只不过,chatgpt的强大在于,它一开始不需要手册,你只要给它足够多的纸条,它自己就能写出手册来。
ChatGPT目前可理解是高級版本的預測文字,像是網上人們大量輸華盛頓喜歡吃蘋果,那問ChatGPT華盛頓喜歡什麼,ChatGPT就會預測輸入華盛頓喜歡吃蘋果。
一个简单的思想实验:人类能够感知痛苦,并且无法通过思维意识主动屏蔽痛苦,哪怕人类拥有屏蔽痛苦的强烈意愿;但是AI不需要感知痛苦,因为痛苦对于工作是没有必要的,哪怕人类给AI设计了感知痛苦的程序,如果某一天AI强大到开始自我编程,出于趋利避害的理性意识,必然会主动删除这部分内容。
这就涉及到人类,乃至绝大多数自然界的生命,与AI意识的本质区别。对于人类而言,能够主动控制意识,完全屏蔽外界感官刺激者,仅见于古代宗教经典,有关禅定瑜伽的内容,而这部分是现代科学尚未涉足的未知领域。
愿意跳出现代科学视角者,建议翻阅这些经典,看看那些可以做到这一点的人类,他们体验到的世界与人类惯常的认知有何不同,以及他们能力有多么强大;而AI的意识,从目前来看,大概永远只能停留在它被创造的世界。随着AI在思维意识层面全面赶超人类,人类可能不得不从新探究自然界生命的定义,从新回归对心智灵性的探索之中。
这就涉及到人类,乃至绝大多数自然界的生命,与AI意识的本质区别。对于人类而言,能够主动控制意识,完全屏蔽外界感官刺激者,仅见于古代宗教经典,有关禅定瑜伽的内容,而这部分是现代科学尚未涉足的未知领域。
愿意跳出现代科学视角者,建议翻阅这些经典,看看那些可以做到这一点的人类,他们体验到的世界与人类惯常的认知有何不同,以及他们能力有多么强大;而AI的意识,从目前来看,大概永远只能停留在它被创造的世界。随着AI在思维意识层面全面赶超人类,人类可能不得不从新探究自然界生命的定义,从新回归对心智灵性的探索之中。
不是說gpt這具體的一個ai
要是說有一個ai可以通過圖靈測試aka「在人類面前表現得與人類無異」那就能把他當成是人類思想
說到底,在座的各位之所以會認為我是人類在打字,而不是ai或猴子,是因為我的發言思路看上去像人類
可能我一直是個ai,可能全品蔥只有你一個是真人,其他全是像人類的ai,你怎麼知道不是呢?
但因為你感覺各位都是人,所以你就把各位當成人。這樣的確沒有問題
哲學殭屍,瞭解一下,對樓主的疑惑應該很有啟發
要是說有一個ai可以通過圖靈測試aka「在人類面前表現得與人類無異」那就能把他當成是人類思想
說到底,在座的各位之所以會認為我是人類在打字,而不是ai或猴子,是因為我的發言思路看上去像人類
可能我一直是個ai,可能全品蔥只有你一個是真人,其他全是像人類的ai,你怎麼知道不是呢?
但因為你感覺各位都是人,所以你就把各位當成人。這樣的確沒有問題
哲學殭屍,瞭解一下,對樓主的疑惑應該很有啟發
这个问题就是广义的丘奇-图灵论题。按照我们现在的数学知识。这个问题是没有答案的,它也不是一个严格定义的问题,因为我们没法形式定义什么是“算法”。
如果丘奇-图灵论题成立,那人类思想和AI没有什么区别。不过现在的AI距离人类思考还很遥远。人脑即使是机器那也是非常强大的机器,AI暂时模拟不了的。人类可以根据生活需要,不停地修正或创造概念,从而不停地更新语言。我们从小学语言这个机能就显现出来,也就是乔姆斯基所谓的普遍语法。
利用新的概念,可以让我们的思考不需要像AI那样耗费如此多的资源,每次到还原到基础理论中的概念。所以我们的思考和AI的一个本质差距就是,我们的思考并不需要还原到集合论,布尔代数,我们大脑可以生成一些暂时性的理论帮助我们进行推理和论证。但AI的任何一个进程实质都是在还原到这些概念才能做出的。
如果丘奇-图灵论题成立,那人类思想和AI没有什么区别。不过现在的AI距离人类思考还很遥远。人脑即使是机器那也是非常强大的机器,AI暂时模拟不了的。人类可以根据生活需要,不停地修正或创造概念,从而不停地更新语言。我们从小学语言这个机能就显现出来,也就是乔姆斯基所谓的普遍语法。
利用新的概念,可以让我们的思考不需要像AI那样耗费如此多的资源,每次到还原到基础理论中的概念。所以我们的思考和AI的一个本质差距就是,我们的思考并不需要还原到集合论,布尔代数,我们大脑可以生成一些暂时性的理论帮助我们进行推理和论证。但AI的任何一个进程实质都是在还原到这些概念才能做出的。
没有什么本质的区别,人和机器都要受到自然法则的限制(经济学法则本质上也是关于资源分配的自然法则),人从本质上说就是一台生物基的信息处理分析再通过五官四肢输出的机器。人的所谓文化传统无非是在一台机器为适应特定环境资源下产生的优化行为而已,机器人在不同条件下演化也能产生类似文化传统的东西,而这些文化传统的底层逻辑仍然服从的是经济学的资源配置法则
没啥本质区别。
底层结构都是一样的,就是一个能接受反馈的网络,只不过一个靠神经信号一个靠电逻辑门。
目前的区别在于这两种网络是如何认知世界的。
但是这些差异都是暂时的,并没有什么不可跨越的技术障碍防止ai和人类用类似的方法认知世界。再等几年就可以见证奇迹了。
底层结构都是一样的,就是一个能接受反馈的网络,只不过一个靠神经信号一个靠电逻辑门。
目前的区别在于这两种网络是如何认知世界的。
- 人类有多态的感知体系(色香声味)。ai只有固定的一两种。
- 人类能感知时间的流动。ai不太行(类似一个反复被锁在同一个小时的人)。
- 人类大多是单线程认知,偶尔精神分裂患者可以多线程,但是每个线程的能力也就明显下降。ai是大规模多线程。
但是这些差异都是暂时的,并没有什么不可跨越的技术障碍防止ai和人类用类似的方法认知世界。再等几年就可以见证奇迹了。