※ AIによる要約
OpenAIは、新たな多機能モデレーションモデル「omni-moderation-latest」をModeration APIに導入しました。GPT-4oを基盤とするこの新モデルは、テキストと画像の両方に対応し、有害なコンテンツの検出精度が向上しています。
この新モデルは、多言語対応の強化が特徴です。40言語のテストでは、前モデルと比較して42%の性能向上が見られ、98%の言語で改善が確認されました。特に、テルグ語、ベンガル語、マラーティー語などのリソースの少ない言語で顕著な進歩がありました。また、6つのカテゴリーにわたるマルチモーダル有害性分類機能を備えています。暴力、自傷行為、性的コンテンツなどの検出が可能で、画像単独または画像とテキストの組み合わせに対応します。
さらに、2つの新しいテキスト専用の有害カテゴリーが追加されました。「illicit」は違法行為の指示や助言を、「illicit/violent」は暴力を伴う違法行為を検出します。各スコアの較正も改善され、コンテンツが関連ポリシーに違反する確率をより正確に表すようになったことで、将来のモデレーションモデル間での一貫性が高まります。
既にこの新モデルは、ソーシャルメディアプラットフォームや生成AI企業など、様々な分野で活用されています。例えば、Grammarly社はAIコミュニケーション支援の安全性確保に、ElevenLabs社は音声AI製品のコンテンツスキャンに利用しています。
OpenAIは、このモデルを無料で開発者に提供しています。これにより、プラットフォームのポリシー執行や人間のモデレーターの負担軽減が期待されることでしょう。デジタルプラットフォームの健全性維持に貢献する重要なツールとして、今後の活用が注目されます。