V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Qinnn
V2EX  ›  程序员

Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万,提升了五倍

  •  
  •   Qinnn · Aug 13, 2025 · 2920 views
    This topic created in 261 days ago, the information mentioned may be changed or developed.

    这个上下文长度有点强了,就是不知道超大上下文会不会也伴随着降智的问题。

    5 replies    2025-08-13 16:21:22 +08:00
    MIUIOS
        1
    MIUIOS  
       Aug 13, 2025
    鱼和熊掌不可兼得
    sentinelK
        2
    sentinelK  
       Aug 13, 2025
    在其他因素均不变的情况下肯定有影响,因为更大的上下文,逻辑链路就更长,最优解的统计学优势就更不明显。
    但反之,上下文的质量如果很高,那么结果应该会更好。

    相当于是降低了下限,提高了上限。
    Seck
        3
    Seck  
       Aug 13, 2025 via Android
    …………这么长的东西里面真的能找到重点?

    现在的人根本没有能力处理这么大的输出,纯纯的骗傻子
    sentinelK
        4
    sentinelK  
       Aug 13, 2025
    @Seck 这个“重点”其实是可以的。只要你给的上下文确实是有一个合理的最优解方向。因为从广义上讲,正确的上下文越大,其结果就越贴近于使用者的需求。

    比如,之前的 GPT3.5 ,基于其上下文能力,你只能问一些语法等非业务问题。
    但目前就可以问功能、问模块。

    上下文再大一些可以问程序架构设计、跨项目的接口合理性规划等。这是一个循序渐进的过程。
    所以上下文的扩展,其实是对使用者,以及周边配套程序(类似 Copilot 的搜索、 @workspace 功能)的上下文设计能力提出了更高的要求而已。

    更大的上下文总是好的。
    absx
        5
    absx  
       Aug 13, 2025
    那么,代价是什么呢? https://www.anthropic.com/news/1m-context
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2117 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 33ms · UTC 00:37 · PVG 08:37 · LAX 17:37 · JFK 20:37
    ♥ Do have faith in what you're doing.