- 合計15億パラメータ(稼働時5000万)のMoE軽量設計で、外部APIなしのローカル実行に対応。端末外にデータを出さずに個人情報を処理できる
- 名前・住所・口座番号・パスワードなど8カテゴリのPIIを文脈から識別し、PII-Masking-300kベンチマークでF1スコア96%を達成
- Apache 2.0ライセンスでHugging FaceとGitHubから無償取得可能。GDPRや個人情報保護法への対応コストを大幅に低減できる
Privacy Filterとは
OpenAIは2026年4月22日、個人を特定できる情報(Personally Identifiable Information、PII)をテキストから検出・マスキングするオープンウェイトモデル「Privacy Filter」を公開しました。Apache 2.0ライセンスのもとHugging FaceおよびGitHubで配布されており、商用利用を含めて自由に使用できます。
このモデルはOpenAI自身が社内の個人情報保護ワークフローで実際に活用しているバージョンをベースにしており、「AIを安全に構築するための実用的なインフラを開発者に提供する取り組みの一環」と同社は説明しています。従来の類似ツールとの大きな違いは、クラウドAPIへの依存を排除したローカル動作と、文脈を考慮した識別能力の2点にあります。
検出できる8カテゴリ
Privacy Filterが識別するのは次の8カテゴリです。
- 個人名
- 住所
- メールアドレス
- 電話番号
- URL
- プライベートな日付
- 口座番号(クレジットカード・銀行口座番号を含む)
- シークレット(パスワード・APIキーなどのクレデンシャル)
従来のルールベースのPII検出ツールは電話番号やメールアドレスのような固定フォーマットは捕捉できる一方、文脈に依存して初めて個人情報となるデータを見逃すことが多くありました。Privacy Filterはトークン分類アーキテクチャを採用し、入力テキスト全体を一括解析することで文脈依存の識別を実現しています。公開情報と私人に紐づく情報を区別できるため、不要なマスキングを最小限に抑えながら個人情報を適切に保護できます。
軽量設計とローカル実行
モデルの合計パラメータ数は15億ですが、Mixture of Experts(MoE)ルーティングによって推論時に稼働するパラメータは5000万に絞られています。これによりラップトップ上でも動作可能な軽量さを保ちつつ、高い検出精度を維持しています。
コンテキストウィンドウは最大12万8000トークンに対応しており、大規模なドキュメントをファイル分割なしに一括処理できます。ローカル実行が可能なため、フィルタリング前の生データを外部サーバーへ送信する必要がなく、機密情報の漏えいリスクを最小化した状態でPII処理を実施できます。ログの保存前処理やデータセットの匿名化、LLMへの入力前スクリーニングなど、クラウドAPIを経由できないセキュアな環境での利用に適しています。

ベンチマーク性能と適応性
OpenAIはPII検出の標準ベンチマーク「PII-Masking-300k」でPrivacy Filterを評価しました。F1スコアは96%(適合率94.04%、再現率98.04%)で、ラベリング問題を修正した改訂版データセットではF1スコア97.43%(適合率96.79%、再現率98.08%)まで向上しています。
また、少量のドメイン固有データでファインチューニングした場合に性能が大きく改善することも確認されており、ある評価ではF1スコアが54%から96%へ向上しています。医療・法務・金融など用語が特殊な業界において、追加学習によって汎用モデルの弱点を補えることを示す結果です。
一方でOpenAIは「稀な識別子や曖昧な表現を見逃す場合があり、短いテキストでは文脈が限られるため過剰または過少なマスキングが起こりうる」と明示しています。機密性の高い法務・医療・金融ワークフローでは、人間によるレビューとドメイン固有の評価を引き続き実施することを推奨しています。
開発現場への影響
GDPRや日本の個人情報保護法への対応が求められる開発現場では、プロンプトにPIIが含まれていないかの確認、ログデータの匿名化、LLM出力の検査など複数の場面でPII検出が必要になります。これまでは正規表現や商用APIに頼るケースが多く、文脈依存の情報を見逃すリスクと外部依存のコストが課題でした。
Privacy FilterはApache 2.0で無償提供され、ローカル実行が可能なため、クラウドAPIのコストや送信リスクを回避しながら高精度なPII保護を組み込めます。OpenAI Agents SDKで構築した長時間実行のAIパイプラインにインラインで組み込むことで、エージェントが処理するデータから個人情報を自動除去するプライバシーレイヤーを構築できます。トレーニングデータには公開データと合成データが混在しており、多言語テキストやソフトウェアのシークレット情報、長文ドキュメントに対する堅牢性も検証済みです。コンプライアンス対応のインフラを内製化するコストを大幅に下げる選択肢として、AIを活用する企業の開発現場での採用が広がると見られます。
