1
x1184 2023-10-09 23:12:28 +08:00
未来的趋势是应用化 Agents 化,你看不到背后的提示词和处理过程了,直接获知结果
|
2
youthfire 2023-10-09 23:21:46 +08:00 via iPhone
进步很多了,提示词在 3.5 阶段尤其敏感,细微的区别就能造成结果天差地别,也才诞生了当时的“提示词工程师”一说。经过自媒体各种发酵。你没发现 4.0 后这种论调就冷淡了吗?
|
3
pansongya 2023-10-10 09:22:12 +08:00
人都得 PUA 何况机器呢
|
4
lyyQAQ 2023-10-10 09:40:32 +08:00
可能因为它是单字接龙,前面的内容会影响后面生成内容的概率,加上引导以后会有更大概率生成你需要的内容或者更优质的内容,不过 gpt4 大部分时候不需要引导就能给出很好的结果了,除非某些时候它给出的答案确实不满意,或者像生成 midjourney 提示词这种情况
|
5
Yuhyeong 2023-10-10 11:43:30 +08:00
工具而已,你能用明确的指令控制 LLM 的行为已经很好了。
要优雅干嘛,指望 LLM 陪你跳华尔兹?你提问再怎么优雅他本质就是随机的啊,不是你用你觉得优雅的指令他就不是一个随机性极大的模型了。明确的指令才能有正常的效果。建议工程师们不要把坏习惯带到这种没必要的地方。 提示词工程师这个确实离谱,谁干我笑话谁,随便找个高中生适应一个月就能干。 |