V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
xuelang
V2EX  ›  OpenAI

识破 GPT4 的"幻觉"

  •  
  •   xuelang ·
    selfboot · 331 天前 · 833 次点击
    这是一个创建于 331 天前的主题,其中的信息可能已经有所发展或是发生改变。

    当我们让 GPT-4 帮助我们解决编程问题时,它可能会生成一段看起来完美的代码,但实际上,这段代码可能并不能解决我们的问题,或者它的解决方案可能并不是最优的。这是因为 GPT-4 并不理解代码的含义,它只是模仿它在训练数据中看到的代码模式。这种现象被成为幻觉,用 GPT-4 久了的话,基本都会体会到。

    识破这种幻觉的关键在于理解 GPT-4 的工作原理,以及它的局限性。我们需要意识到,GPT-4 并不理解我们的问题,也不理解它生成的答案。它只是一个非常复杂的模式匹配器,它的目标是生成看起来合理的文本,而不是解决我们的问题。当我们使用 GPT-4 时,我们需要批判性地思考它的回答,验证它的答案,甚至需要寻求其他专家或资源的帮助。只有这样,我们才能充分利用 GPT-4 的能力,同时避免被它的表面表现所迷惑。

    在让它做一个题目过程中,发现它又出幻觉了,然后就开始了让它认错,以及验证的过程,具体看 GPT4 解 Leetcode 题目:识破 GPT4 的"幻觉"

    整个 ChatGpt 的对话也有分享。

    4 条回复    2023-06-14 13:33:46 +08:00
    cloud2000
        1
    cloud2000  
       331 天前
    试试在提问之前加一个提示:

    "Let's think step by step".

    可能有新的发现.
    xuelang
        2
    xuelang  
    OP
       331 天前
    @cloud2000 思维链提示只能再某些逻辑问题上减缓幻觉。目前模型还不能彻底杜绝幻觉
    cloud2000
        3
    cloud2000  
       330 天前
    因为它不能每次正确, 就判定其没有智力, 是不是略牵强...
    就像我们不能因为某人有时犯错就断定"他是个傻子".


    "模式匹配","文字接龙"...属于流传很广的说法, 没有在根本上解释大模型的"涌现".
    大模型本质属于黑盒子, 所以在学术界也有一些争议.
    xuelang
        4
    xuelang  
    OP
       330 天前
    @cloud2000 这里没有判定其没有智力,恰恰相反,我是觉得他有智力,并且比很多人智力都要好。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5916 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 01:39 · PVG 09:39 · LAX 18:39 · JFK 21:39
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.