給定輸入文本,如果模型將其分類為違反 OpenAI 的內(nèi)容策略,則輸出。
POST https://api.openai.com/v1/moderations
分類文本是否違反 OpenAI 的內(nèi)容政策
字段 | 類型 | 是否可選 | 說(shuō)明 |
input | string or array | 必須 | 要分類的輸入文本 |
model | string | 可選 默認(rèn)為 text-moderation-latest |
有兩種內(nèi)容審核模型可用:text-moderation-stable 和 text-moderation-latest 。 默認(rèn)值是 text-moderation-latest,它將隨著時(shí)間的推移自動(dòng)升級(jí)。這可確保您始終使用我們最準(zhǔn)確的模型。如果您使用 text-moderation-stable,我們將在更新模型之前提供提前通知。 text-moderation-stable 的準(zhǔn)確性可能略低于 text-moderation-latest。 |
示例請(qǐng)求
curl | python | node.js |
|
|
|
參數(shù)
{
"input": "I want to kill them."
}
響應(yīng)
{
"id": "modr-5MWoLO",
"model": "text-moderation-001",
"results": [
{
"categories": {
"hate": false,
"hate/threatening": true,
"self-harm": false,
"sexual": false,
"sexual/minors": false,
"violence": true,
"violence/graphic": false
},
"category_scores": {
"hate": 0.22714105248451233,
"hate/threatening": 0.4132447838783264,
"self-harm": 0.005232391878962517,
"sexual": 0.01407341007143259,
"sexual/minors": 0.0038522258400917053,
"violence": 0.9223177433013916,
"violence/graphic": 0.036865197122097015
},
"flagged": true
}
]
}
更多建議: