V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
binbinjp0915
V2EX  ›  程序员

gpt-4 gpt-5 是否依然只是函数拟合和逼近 离产生自主意识还有多远

  •  
  •   binbinjp0915 · 2023-03-30 11:20:40 +08:00 · 6568 次点击
    这是一个创建于 446 天前的主题,其中的信息可能已经有所发展或是发生改变。
    41 条回复    2023-03-31 17:17:21 +08:00
    wudiiiii
        1
    wudiiiii  
       2023-03-30 11:34:43 +08:00   ❤️ 12
    从标题的语气来看,你低估了函数,潜台词是自主意识不是一个函数
    swulling
        2
    swulling  
       2023-03-30 11:39:05 +08:00   ❤️ 1
    人脑神经网络难道不也是一种机械式的反应?
    为什么人脑就产生自主意识了?
    cocomiko
        3
    cocomiko  
       2023-03-30 11:40:37 +08:00   ❤️ 5
    你有没有想过你可能就是一个函数呢,输入外界的刺激参数+你个人经历=>输出你的行为
    Juszoe
        4
    Juszoe  
       2023-03-30 11:42:50 +08:00
    这篇文章有点老了,作者的一些思考有时代局限性。或许自主意识与函数并没有太多区别
    opentrade
        5
    opentrade  
       2023-03-30 11:47:27 +08:00
    数学之美
    pkoukk
        6
    pkoukk  
       2023-03-30 11:48:53 +08:00   ❤️ 5
    我们来进行一个哲学思考,假如有一块石头有意识,但是它的意识无法转换成为宏观可观测层面的任何变化,也就是不能说话也不能动,那么从我的观察角度来说,它有意识么?
    假如这个世界上有一个 AI 机器人,它不会自主思考,但是他能根据人类给它的材料和模型,对外界的输入进行有效的反应,并且由于它的参数足够多,能够敏感的捕捉到接近人类感官的所有信息进行拟合,也就是它也会受到 天气、温度、上一件事情的结果的影响,它也是一个“不可预测”的混沌系统,那么从我的观察角度来说,它有意识么?

    再进一步说,请用普通话念出以下文字:“你是我的小呀小苹果”
    是不是非常多的人脑子里都会响起一段旋律?凭什么人类根据学习数据产生的记忆是包含自主意识的?而 AI 就没有呢?
    reallynyn
        7
    reallynyn  
       2023-03-30 12:03:37 +08:00
    现在 gpt 的节点数量还远不如人脑复杂,自我意识也许只是海量连接的假象。。
    sosilver
        8
    sosilver  
       2023-03-30 12:09:00 +08:00 via Android
    类似`盲视`里的外星生物,只是个中文屋
    wanguorui123
        9
    wanguorui123  
       2023-03-30 12:21:29 +08:00
    人的意识有部分来自于激素刺激和应激反应以及突变,而不是单一的模仿和学习
    wanguorui123
        10
    wanguorui123  
       2023-03-30 12:29:16 +08:00
    @wanguorui123 我认为真正的 AI 应该不是单纯的拟合输出,而是有激素刺激或应激反应或突变产生出不确定性的处理结果
    shyangs
        11
    shyangs  
       2023-03-30 12:36:56 +08:00
    @wanguorui123

    你能看出我體內的激素刺激嗎? 你覺得我有自我意識嗎?
    tankeco
        12
    tankeco  
       2023-03-30 13:00:56 +08:00
    如果说固定输入固定输出的函数无法产生意识的话,意识产生于随机数...
    deorth
        13
    deorth  
       2023-03-30 13:02:36 +08:00 via Android
    鸭子意识
    wfhtqp
        14
    wfhtqp  
       2023-03-30 13:11:24 +08:00
    MAGI 是否有可能实现
    akira
        15
    akira  
       2023-03-30 13:46:24 +08:00
    意识 是啥 现在也没定论的吧
    yinmin
        16
    yinmin  
       2023-03-30 13:47:42 +08:00
    “函数拟合和逼近”->“理解与推理”->“自主意识”的关系,就像“化学反应”->“生物”->“人类”的关系吧。

    GPT 过奇点了。以下问题是我自己编的,非网络已有问题,从回答上可以感知到 AI 理解和推理能力。

    如果 AI 进化到有自己的三观,“理解与推理”就进化到了“自主意识”了。

    ======================

    问:小明每次做作业的时候,就想玩手机,做作业越来越马虎,期末考试不及格;小王考试前 1 天晚上突然发高烧,考试没精神,期末考试也不及格。小明和小王哪一个属于黑天鹅事件,哪一个属于灰犀牛事件?

    答:根据黑天鹅事件和灰犀牛事件的定义,可以分析:

    小明属于灰犀牛事件。因为他的行为模式是可以预见的,每次做作业都想玩手机,而且成绩越来越差,所以他的成绩不及格是可以预见的,也可以采取措施来避免。这是一种慢性问题,可能需要长期关注和解决。

    小王属于黑天鹅事件。因为他突然发高烧,导致考试状态不佳,这是无法预见的不可控事件。尽管小王可以事先采取保健措施,但高烧这种突发情况本身是不可预测的。

    因此,小明属于灰犀牛事件,而小王属于黑天鹅事件。

    ======================

    问:张三下课撞了李四,李四想到昨天张三要抄自己的作业没答应,认为张三是有意要撞自己; 李四将这件事情告诉了王五,王五说没有发现确凿证据,所以他认为张三是不小心撞到李四的。李四和王五哪个人是阴谋论,哪个人用了奥卡姆剃刀法?

    答:根据所提供的信息,李四认为张三是有意要撞自己,这表明李四是倾向于阴谋论的一方。相反,王五则使用了奥卡姆剃刀法,因为他只根据现有证据做出了一个更简单和更直观的解释,即张三不小心撞到了李四。

    ======================
    loryyang
        17
    loryyang  
       2023-03-30 13:50:28 +08:00
    那你之前信图灵测试吗? gpt4 通过图灵测试应该是没问题了
    ImpXada
        18
    ImpXada  
       2023-03-30 14:09:55 +08:00
    什么是自我意识
    BornGuilty
        19
    BornGuilty  
       2023-03-30 14:37:54 +08:00 via Android
    不是了,大模型已经发生了涌现的现象
    Oilybear
        20
    Oilybear  
       2023-03-30 14:42:09 +08:00   ❤️ 1
    我个人认为情感与拟合出来的函数不同的本身就是以人为中心的唯心主义。
    davidqw
        21
    davidqw  
       2023-03-30 16:18:49 +08:00
    人和 AI 之间就差一个随机数发生器,所谓的自我意识
    sillydaddy
        22
    sillydaddy  
       2023-03-30 16:22:21 +08:00   ❤️ 2
    用“拟合”来理解深度学习,只是看到了表面现象。重要的是“泛化”。

    https://www.libaedu.com/info/243.html
    这里看到一个很有意思的观点 **统计学在于拟合,深度学习在于外推**。一部分人认为,深度学习之所以成功,只是因为在高维空间有着优秀的 curve ftting 能力或者说拟合能力。而模型的输出,只是拟合函数的插值结果,或者 interpolation 结果。对于这个观点,著名的人工智能三巨头之一 Yann Lecun 有着他自己的不一样的看法。他认为"in
    high dimension, there is no such thing as interpolatioIn high dimension, everything isextrapolation."
    也就是说,他认为,在高维空间就不存在插值这样的东西,在高维空间-切都只有外推也就是 extrapolation 。插值和外推的区别就是,插值的话你的输入是在你给定值域范围内的,也就是你见过类似的。外推就是,你的输入是在值域之外的。

    https://www.sohu.com/a/278209059_314987
    关于泛化,这里有一个更系统的论述 **机器学习的本质: 理解泛化的新观点**
    过拟合的反面, 就是泛化, 应该说,它就是学习的本质。 否则, 整个机器学习就是一门拟合而已, 深度学习就是比较复杂的拟合。学习的最高境界,是在纷繁的现象里总结出简单的定理,比如看到大量物体运动的轨迹,总结出牛顿定律: F=ma . 但是它的预测能力几乎是无限的。学习,本来就是在总结规律,而不是复制数据。

    https://www.leiphone.com/category/academic/UhwkU7HPkFz8kp80.html
    还有一个看起来很有意思的:**深度学习为何泛化的那么好?秘密或许隐藏在内核机中**
    众所周知,像 VGG 这样的深度神经网络参数太多,应该会过拟合,但事实并非如此。而且恰恰相反,这类网络对新数据的泛化能力惊人的好——直到最近,还没人知道其中的原因。现在,内核机和理想化神经网络的数学等价性为这些过度参数化的网络效果如此好的原因和过程提供了线索。内核机是一种算法,它通过将数据投射到极高的维度中来寻找数据中的模式。也就是说,通过研究理想化神经网络在数学上易于处理的内核机等价对应物,研究人员正在了解为什么深度网络尽管具有令人震惊的复杂性,但在训练过程中会收敛到可以很好地泛化到未见过的数据的解决方案。
    nightwitch
        23
    nightwitch  
       2023-03-30 16:45:17 +08:00
    关于意识的成因也没弄清楚啊。。当一个拟合函数能够各方面模拟意识的行为,那它本身是由细胞+电信号组成的,还是由一堆参数构成的就不重要了。
    ikenneth
        24
    ikenneth  
       2023-03-30 16:49:19 +08:00
    什么时候能弄懂,生命、精神、意识这些抽象的概念,才能从根本上做出真正的 AI 吧,但那又是独立的生命了。或许就用函数拟合和逼近,才能叫做 AI ,否则就是造人了。
    neopenx
        25
    neopenx  
       2023-03-30 17:05:07 +08:00   ❤️ 1
    你还是去看看 Ilya Sutskever 和老黄的谈话,当模型拟合的数据是世界的投影(World Projection)的时候,你就很难用简单 corner case 来测试是否是 AI 了。意识本身没什么意义,你只要维护一个持续观测预测的流水线就可以近似意识了。类 GPT 竞品基本上对答几次就开始暴力输出无意义的预测了,根本没法构建预测永动机
    mxT52CRuqR6o5
        26
    mxT52CRuqR6o5  
       2023-03-30 17:14:49 +08:00
    人脑也不过是一堆物理反应和化学反应,凭什么说人就是有意识的,而机器表现出来的东西就是没意识的呢?
    乐观估计参数量可劲往上堆,多模态研究再继续发展,就能整出类似于意识的东西
    leconio
        27
    leconio  
       2023-03-30 17:20:27 +08:00
    @pkoukk 我觉得老哥说的有道理。世界是有序的和随机的本来就没有结论,我们各自不同思想,不就是参数足够多的体现嘛。如果这里的参数超过了人类的经验,是否就能成为相对有自我意识了呢。机器认为他在正常运行,却在我们的意料之外。
    Yeen
        28
    Yeen  
       2023-03-30 17:53:14 +08:00
    现在 AI 离得最远的是没有生命的原动力
    病毒只是一小段蛋白,不吃不喝不排泄。但是他就有复制自己的原动力,永远不停。
    机器没有这种东西。
    b2byco
        29
    b2byco  
       2023-03-30 17:59:33 +08:00
    @Yeen 是的现在 AI 就差一个 AI 病毒了
    angryPHP
        30
    angryPHP  
       2023-03-30 19:53:59 +08:00
    是时候聊聊宿命论了
    mostkia
        31
    mostkia  
       2023-03-30 20:23:22 +08:00
    量变引起质变,gpt 研发人员就坦言说 AI 的有些反应他们已经没法解释了,能通过图灵测试的东西,你就不能否认它可能已经产生意识了
    jenlors
        32
    jenlors  
       2023-03-30 20:31:18 +08:00   ❤️ 3
    我觉得是否有自主意识在于 AI 是否能主动去做些什么,而不是被动接受外界输入然后做出反应
    levn
        33
    levn  
       2023-03-30 20:36:11 +08:00
    维持一个自我意识是一个成本很高的东西
    可以认为现阶段的 AI 处于无意识直觉之中。其实它并没有什么产生意识的需要
    一旦加入自我意识因素,它将面对更高的能量消耗、更低的产出、全面的不一致性问题,甚至可能患上精神疾病
    kernelpanic
        34
    kernelpanic  
       2023-03-30 21:53:59 +08:00
    这篇文章是 2018 年写的。。。但是这几年在 Transformer 的加持下,好多领域取得了难以想象的突破
    laylou
        35
    laylou  
       2023-03-30 22:21:27 +08:00
    人类本身也是一个概率机啊,和 AI 的原理差不多的
    xabcstack
        36
    xabcstack  
       2023-03-30 22:24:40 +08:00
    机器可以无限聪明,没有毛病,但是钢铁本质就是钢铁,你不能说钢铁能变成蛋白质吧

    这个道理就是汽车跑到再快,它也不是猎豹

    如果根据上面的推论,足够智能就凭空产生出了意识? 那么 婴儿,蚂蚁,毛毛虫,猪,狗 这些生命体是不是就不该有意识?
    flush9f
        37
    flush9f  
       2023-03-31 00:32:19 +08:00
    没有任何东西能证明自我意识存在,也没有任何东西能证明意识的存在感可以自己产生
    cnt2ex
        38
    cnt2ex  
       2023-03-31 08:03:55 +08:00
    单纯的函数拟合从来就不是机器学习的重点,重点是泛化。

    传统的机器学习理论的一个结论是,一个模型的容量越小,那么它的泛化误差的上界越小。
    由于误解了这个结论,认为“模型的容量太大,泛化误差就一定大”,导致早期研究人员都不喜欢用神经网络,不仅仅是算力和数据不够才导致神经网络被忽略,而是大模型在理论上没有泛化误差上界的保证。

    而最近十年实际上观察到的却是,随着模型容量增大,模型的泛化能力似乎是越来越好了。但至今真正的原因也没有人找到,这方面的理论分析还差得太远。
    zhang3x7
        39
    zhang3x7  
       2023-03-31 12:42:17 +08:00
    问题是你怎么知道逻辑推理能力和自主意识不能数字拟合出来?
    baobao1270
        40
    baobao1270  
       2023-03-31 13:16:49 +08:00
    1. 是
    2. 看你怎么定义「意识」
    smdbh
        41
    smdbh  
       2023-03-31 17:17:21 +08:00
    至少不能自己小马过河
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1222 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 18:13 · PVG 02:13 · LAX 11:13 · JFK 14:13
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.