OpenAI週二(4/22)發布Privacy Filter,這是一款用於偵測並遮蔽個人可識別資訊(PII)的開放權重模型,已於Hugging Face與GitHub釋出,採用Apache 2.0授權,支援開發者下載、部署與商業使用。該工具主打可在本地端執行,讓資料在送往雲端或大型模型前即可完成去識別化處理。
隨著生成式AI的應用擴大,企業面臨的關鍵問題之一是敏感資料可能在訓練或推論過程中外洩。Privacy Filter的定位,即是在資料進入AI流程前先行過濾個資,被視為是內建隱私(privacy-by-design)的資料處理機制,有助於降低合規與資安風險。
在技術架構上,Privacy Filter基於OpenAI開放權重模型系列gpt-oss打造,有別於一般大型語言模型逐字生成內容的自回歸方式,該模型採用雙向Token分類架構,能同時利用前後語境判斷每個詞是否屬於個資。此設計使其在辨識需語意判斷的資訊(如姓名、日期)時,較傳統依賴規則的工具更具準確度。
此外,模型採用稀疏混合專家(Mixture-of-Experts, MoE)架構,總參數約15億,但每次僅啟用約5000萬參數,有助於在維持效能的同時降低運算成本。其支援12.8萬個Token的脈絡長度,可一次處理長文件或多封郵件串,避免分段處理所引發的上下文遺失問題。
Privacy Filter可辨識8種個資,包括姓名、地址、電子郵件、電話、網址、日期、帳號資訊與機密資料(如密碼與API key),並透過序列標記與解碼機制,確保遮蔽後內容在語意上保持一致。企業可將其部署於本地或私有雲,在資料進入如GPT-5等大型模型前完成清洗,以符合GDPR或HIPAA等法規要求。
對開發者而言,該模型可在筆電或瀏覽器上執行,並可依需求進行微調。Apache 2.0授權亦允許企業將其整合至自有產品中,無需公開原始碼或支付授權費。
不過,OpenAI也提醒,Privacy Filter應被視為輔助工具,而非完整的隱私保證。在醫療、法律與金融等高風險場景中,仍需搭配人工審查,以降低漏判與誤判風險。