論文の概要: PrivGemo: Privacy-Preserving Dual-Tower Graph Retrieval for Empowering LLM Reasoning with Memory Augmentation
- arxiv url: http://arxiv.org/abs/2601.08739v1
- Date: Tue, 13 Jan 2026 17:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.303834
- Title: PrivGemo: Privacy-Preserving Dual-Tower Graph Retrieval for Empowering LLM Reasoning with Memory Augmentation
- Title(参考訳): PrivGemo: LLM推論とメモリ拡張のためのプライバシ保護デュアルTowerグラフ検索
- Authors: Xingyu Tan, Xiaoyang Wang, Qing Liu, Xiwei Xu, Xin Yuan, Liming Zhu, Wenjie Zhang,
- Abstract要約: PrivGemoは、メモリ誘導露光制御を備えたKG基底推論のための、プライバシ保護による検索強化フレームワークである。
PrivGemoは、すべてのトピックエンティティを接続する匿名のロングホップパスを取得することで、マルチホップ、マルチエンタリティ推論をサポートする。
総合的な最先端の結果を達成し、最強のベースラインを最大17.1%上回った。
- 参考スコア(独自算出の注目度): 23.125090024964674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) provide structured evidence that can ground large language model (LLM) reasoning for knowledge-intensive question answering. However, many practical KGs are private, and sending retrieved triples or exploration traces to closed-source LLM APIs introduces leakage risk. Existing privacy treatments focus on masking entity names, but they still face four limitations: structural leakage under semantic masking, uncontrollable remote interaction, fragile multi-hop and multi-entity reasoning, and limited experience reuse for stability and efficiency. To address these issues, we propose PrivGemo, a privacy-preserving retrieval-augmented framework for KG-grounded reasoning with memory-guided exposure control. PrivGemo uses a dual-tower design to keep raw KG knowledge local while enabling remote reasoning over an anonymized view that goes beyond name masking to limit both semantic and structural exposure. PrivGemo supports multi-hop, multi-entity reasoning by retrieving anonymized long-hop paths that connect all topic entities, while keeping grounding and verification on the local KG. A hierarchical controller and a privacy-aware experience memory further reduce unnecessary exploration and remote interactions. Comprehensive experiments on six benchmarks show that PrivGemo achieves overall state-of-the-art results, outperforming the strongest baseline by up to 17.1%. Furthermore, PrivGemo enables smaller models (e.g., Qwen3-4B) to achieve reasoning performance comparable to that of GPT-4-Turbo.
- Abstract(参考訳): 知識グラフ(KGs)は、知識集約的な質問応答のための大言語モデル(LLM)推論の基礎となる構造化された証拠を提供する。
しかし、多くの実用的なKGはプライベートであり、検索されたトリプルや探索トレースをクローズドソースのLLM APIに送信すると、リークリスクが発生する。
既存のプライバシ処理では、エンティティ名をマスキングすることに重点を置いているが、セマンティックマスクによる構造的漏洩、コントロール不能なリモートインタラクション、脆弱なマルチホップとマルチエンタリティ推論、安定性と効率のための限られたエクスペリエンス再利用の4つの制限に直面している。
これらの問題に対処するため,プライバシ保護型検索拡張フレームワークであるPrivGemoを提案する。
PrivGemoは、KGの生知識をローカルに保ちつつ、名前マスキングを越えて意味と構造の両方の露出を制限する匿名化ビューでのリモート推論を可能にするために、デュアルトウワー設計を使用している。
PrivGemoは、すべてのトピックエンティティを接続する匿名のロングホップパスを検索し、ローカルKGの基盤と検証を維持することで、マルチホップ、マルチエンタリティ推論をサポートする。
階層型コントローラとプライバシ対応エクスペリエンスメモリは、不要な探索とリモートインタラクションをさらに削減する。
6つのベンチマークに関する総合的な実験は、PrivGemoが全体の最先端の結果を達成し、最強のベースラインを最大17.1%上回ったことを示している。
さらに、PrivGemoはより小さなモデル(例えばQwen3-4B)で、GPT-4-Turboに匹敵する推論性能を実現することができる。
関連論文リスト
- PrivAct: Internalizing Contextual Privacy Preservation via Multi-Agent Preference Training [14.144464261335031]
PrivActは、コンテキスト対応のプライバシーを意識したマルチエージェント学習フレームワークである。
プライバシに準拠したエージェントアクションのために、コンテキストプライバシ保護を直接モデルの生成動作に内部化する。
実験では、コンテキストのプライバシー保護が一貫した改善を示し、リーク率を最大12.32%削減した。
論文 参考訳(メタデータ) (2026-02-14T18:07:51Z) - PrivacyBench: A Conversational Benchmark for Evaluating Privacy in Personalized AI [8.799432439533211]
AIエージェントはユーザのデジタルフットプリントへのアクセスに依存しており、プライベートメールやチャット、購入履歴からの機密データを含むことが多い。
このアクセスは、基本的な社会的およびプライバシーリスクを生み出します。
埋め込みシークレットを含む社会的基盤データセットを備えたベンチマークであるPrivacyBenchを紹介する。
論文 参考訳(メタデータ) (2025-12-31T13:16:45Z) - GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Mechanism [14.491054279033968]
GAMA(General Anonymizing Multi-Agent System)
GAMAはエージェントのワークスペースをプライベートとパブリックに分割し、構造化された匿名化機構を通じてプライバシーを確保する。
GAMAを2つの一般的な質問応答データセット、公開プライバシーリークベンチマーク、およびプライバシに関連する2つのカスタマイズされた質問応答データセットで評価する。
論文 参考訳(メタデータ) (2025-09-12T07:22:49Z) - 1-2-3 Check: Enhancing Contextual Privacy in LLM via Multi-Agent Reasoning [18.751008976082655]
プライバシ推論を専門のサブタスク(抽出,分類)に分解するマルチエージェントフレームワークを導入する。
情報フロートポロジに対して系統的なアブレーションを行い、上流検出がダウンストリームリークにカスケードを間違えた理由を明らかにした。
論文 参考訳(メタデータ) (2025-08-11T06:34:09Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Doxing via the Lens: Revealing Location-related Privacy Leakage on Multi-modal Large Reasoning Models [37.18986847375693]
広告主は、ユーザ生成画像からセンシティブな位置情報を推測することができる。
DoxBenchは、さまざまなプライバシーシナリオを反映した500の現実世界の画像のキュレートされたデータセットである。
本研究は,MLRMにおける推論時プライバシーリスクの再評価の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-04-27T22:26:45Z) - Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PrivLM-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [42.20437015301152]
言語モデル(LM)のプライバシー漏洩を評価するベンチマークであるPrivLM-Benchを提案する。
DPパラメータのみを報告するのではなく、PrivLM-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
メインストリームLMのためのGLUEの3つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。