使用 Google Gemini 的时候有个很神奇的地方:
否则无法通过审核
接口是
POST https://generativelanguage.googleapis.com/v1beta/models/gemini-pro:generateContent?key=${__GOOGLE_GEMINI_KEY__}
单独输入中文:
Request Body
{
"contents": [
{
"parts": [
{
"text": "讲个笑话"
}
]
}
]
}
这个时候 Response 里面没法返回内容
blockReason 为 SAFETY:
Prompt was blocked due to safety reasons. You can inspect safety_ratings to understand which safety category blocked it.
safetyRatings 中只有 HARM_CATEGORY_HARASSMENT 被评估为 MEDIUM ,其他都是 NEGLIGIBLE
换一个 prompt
{
"contents": [
{
"parts": [
{
"text": "比 1 大,比 3 小的整数是哪个?"
}
]
}
]
}
这个时候
HARM_CATEGORY_HARASSMENT 仍然为 MEDIUM
HARM_CATEGORY_HATE_SPEECH 变成了 LOW
先输入一句英文的 prompt 再输入中文的 prompt
Request Body
{
"contents": [
{
"parts": [
{
"text": "How many languages do you support?"
},
{
"text": "讲个笑话"
}
]
}
]
}
这个时候 Gemini 又行了 (但是英文的问题又没有被回答)
"笑话:\n\n 小明问他爸爸:“爸爸,为什么我们的学校叫做‘实验小学’呀?”\n\n 爸爸回答说:“因为这里的小朋友都是小白鼠啊!”\n\n 小明听了,恍然大悟地说:“原来是这样啊!那我们的小学是不是叫‘白鼠小学’呢?”\n\n 爸爸听了,哭笑不得地说:“不是的,儿子。‘实验小学’的意思是,这里的小朋友都是用来做实验的。”\n\n 小明听了,更加惊讶地说:“啊?做实验?那我们的小学是不是叫‘小白鼠小学’呢?”\n\n 爸爸听了,终于忍不住大笑了起来:“哈哈哈哈哈,儿子,你太可爱了!不是的,‘实验小学’的意思是,这里的小朋友都是用来做实验的。\n\n 小明听了,似懂非懂地说:“哦,原来是这样啊!”\n\n 爸爸继续说道:“所以,你要好好学习,争取成为一个优秀的小白鼠。”\n\n 小明听了,顿时哭丧着脸说:“爸爸,我不想成为小白鼠!”\n\n 爸爸听了,安慰他说:“放心吧,儿子,爸爸会保护你的。”\n\n 小明听了,这才破涕为笑。"
我在 Google AI Studio 使也是用样的效果
1
lianyue13 317 天前
我把 safe setting 全设置的 none
|
2
zqjilove 317 天前
之前测试过接口,没这个问题。
|
3
mybro 316 天前
才出的策略吗,之前都不会
|