V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
hqwuzhaoyi
V2EX  ›  分享创造

为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama

  •  1
     
  •   hqwuzhaoyi · 247 天前 · 1470 次点击
    这是一个创建于 247 天前的主题,其中的信息可能已经有所发展或是发生改变。

    https://github.com/hqwuzhaoyi/bob-plugin-ollama

    但是 llama 的翻译能力有点捉急,各位大佬有没有好主意

    image

    5 条回复    2024-03-16 03:23:57 +08:00
    unclemcz
        1
    unclemcz  
       247 天前 via Android
    试一下 qwen:7b 及以上,不管准不准,至少翻译出来的句子是顺畅的😃
    hqwuzhaoyi
        2
    hqwuzhaoyi  
    OP
       247 天前
    @unclemcz 哈哈哈,谢谢,我来试试😆
    barryzhai
        3
    barryzhai  
       245 天前 via iPhone
    直接用 openai 那个接口就行,不需要写另外的插件,ollama 支持 openai 格式的 api
    hqwuzhaoyi
        4
    hqwuzhaoyi  
    OP
       244 天前
    @barryzhai 原来是这样,再去试试,奇怪的知识有增加了,我把教程剖出来
    barryzhai
        5
    barryzhai  
       243 天前 via iPhone
    @hqwuzhaoyi openai 插件填写 ollama 本地 api 记得加上 v1/那个后缀,然后密钥随便写
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1434 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 17:37 · PVG 01:37 · LAX 09:37 · JFK 12:37
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.