論文の概要: SEAL-Tag: Self-Tag Evidence Aggregation with Probabilistic Circuits for PII-Safe Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2603.17292v1
- Date: Wed, 18 Mar 2026 02:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.479722
- Title: SEAL-Tag: Self-Tag Evidence Aggregation with Probabilistic Circuits for PII-Safe Retrieval-Augmented Generation
- Title(参考訳): SEAL-Tag: PII-Safe Retrieval-Augmented Generationのための確率回路を用いた自己タグエビデンスアグリゲーション
- Authors: Jin Xie, Songze Li, Guang Cheng,
- Abstract要約: SEAL-Tagは個人識別可能な情報を保護するランタイム環境(PII)
SEAL-TagはSEAL-Probeプロトコルを導入し、監査を構造化されたツール使用操作に変換し、モデルがそのドラフトと共に検証可能なPII-Evidence Table(PET)を生成する。
プライバシ"コールドスタート"問題を克服するため,S0-S6アンコレッド合成パイプラインを導入し,高忠実で実証されたRAGインタラクションを生成する。
- 参考スコア(独自算出の注目度): 36.47163805456756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems introduce a critical vulnerability: contextual leakage, where adversaries exploit instruction-following to exfiltrate Personally Identifiable Information (PII) via adaptive extraction. Current defenses force a rigid trade-off between semantic utility and latency. We present SEAL-Tag, a privacy-preserving runtime environment that resolves this via a Verify-then-Route paradigm. SEAL-Tag introduces the SEAL-Probe protocol, transforming auditing into a structured tool-use operation where the model generates a verifiable PII-Evidence Table (PET) alongside its draft. To adjudicate this evidence, we employ a Probabilistic Circuit (PC) that enforces verifiable logical constraints for robust decision-making. To overcome the privacy "Cold Start" problem, we introduce the S0--S6 Anchored Synthesis Pipeline, generating high-fidelity, provenanced RAG interactions. We pair this with a Two-Stage Curriculum that first optimizes for entity detection before aligning the model to the rigorous audit protocol. Our evaluation demonstrates that SEAL-Tag establishes a new Pareto frontier, reducing adaptive leakage by over 8$\times$ while matching the utility and speed of unsafe baselines.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)システムには、コンテキストリーク(contextual leakage)という重要な脆弱性が導入されている。
現在の防衛は、セマンティックユーティリティと遅延の間の堅固なトレードオフを強いる。
本稿では,プライバシ保護環境であるSEAL-Tagを紹介し,これをVerify-then-Routeパラダイムを用いて解決する。
SEAL-TagはSEAL-Probeプロトコルを導入し、監査を構造化されたツール使用操作に変換し、モデルがそのドラフトと共に検証可能なPII-Evidence Table(PET)を生成する。
この証拠を補足するために、堅牢な意思決定のために検証可能な論理的制約を強制する確率回路(PC)を用いる。
プライバシ"コールドスタート"問題を克服するため,S0-S6アンコレッド合成パイプラインを導入し,高忠実で実証されたRAGインタラクションを生成する。
これは、厳密な監査プロトコルにモデルを整列する前に、まずエンティティ検出を最適化する2段階のカリキュラムと組み合わせます。
評価の結果,SEAL-Tagは新たなParetoフロンティアを確立し,安全でないベースラインの有効性と速度に適合しながら,適応リークを8$\times$以上削減できることがわかった。
関連論文リスト
- TraceGuard: Process-Guided Firewall against Reasoning Backdoors in Large Language Models [19.148124494194317]
我々は,小規模モデルを堅牢な推論ファイアウォールに変換するプロセス誘導型セキュリティフレームワークであるTraceGuardを提案する。
提案手法は,推理トレースを信頼できないペイロードとして扱い,詳細な防衛戦略を確立する。
グレーボックス設定における適応的敵に対する堅牢性を実証し、TraceGuardを実用的で低レイテンシなセキュリティプリミティブとして確立する。
論文 参考訳(メタデータ) (2026-03-02T22:19:13Z) - Detecting Sleeper Agents in Large Language Models via Semantic Drift Analysis [0.0]
大きな言語モデル(LLM)は、特定のデプロイメント条件下で悪意のある振る舞いを示すために、バックドアにすることができる。
Hubingerらによる最近の研究は、バックドアが安全訓練を通じて持続することを示したが、実用的な検出方法はない。
セマンティックドリフト解析とカナリアベースライン比較を組み合わせた新しいデュアルメソッド検出システムを提案する。
論文 参考訳(メタデータ) (2025-11-20T02:42:41Z) - Keys in the Weights: Transformer Authentication Using Model-Bound Latent Representations [0.3805935148497361]
ZSDN(Zero-Shot Decoder Non-Transferability)として形式化されたトランスフォーマーオートエンコーダにおけるデコーダ結合特性であるモデル境界遅延交換(MoBLE)を導入する。
同一データで訓練されるが種によって異なるアイソ構造モデルを用いたアイデンティティタスクでは、自己復号法は0.91以上の正確な一致と0.98のトークンの精度を達成する。
MoBLEは、航空やサイバー物理システムを含む安全クリティカルな領域にAIを配置するための、軽量でアクセラレータフレンドリなアプローチを提供する。
論文 参考訳(メタデータ) (2025-11-02T15:29:44Z) - HALT-RAG: A Task-Adaptable Framework for Hallucination Detection with Calibrated NLI Ensembles and Abstention [0.0]
HALT-RAGは、Retrieval-Augmented Generationパイプラインの出力における幻覚を特定するために設計されたポストホック検証システムである。
我々のフレキシブルでタスク適応性のあるフレームワークは、2つのフリーズ・オフ・ザ・シェルフ自然言語推論(NLI)モデルと軽量語彙信号のアンサンブルから導かれる普遍的な特徴セットを使用する。
HALT-RAGは軽量・タスク適応型・高精度制約型決定ポリシーと組み合わせることで,要約,QA,対話における強いOOF F1スコア0.7756,0.9786,0.7391を達成する。
論文 参考訳(メタデータ) (2025-09-09T07:58:46Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。