論文の概要: PrivGemo: Privacy-Preserving Dual-Tower Graph Retrieval for Empowering LLM Reasoning with Memory Augmentation
- arxiv url: http://arxiv.org/abs/2601.08739v1
- Date: Tue, 13 Jan 2026 17:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.303834
- Title: PrivGemo: Privacy-Preserving Dual-Tower Graph Retrieval for Empowering LLM Reasoning with Memory Augmentation
- Title(参考訳): PrivGemo: LLM推論とメモリ拡張のためのプライバシ保護デュアルTowerグラフ検索
- Authors: Xingyu Tan, Xiaoyang Wang, Qing Liu, Xiwei Xu, Xin Yuan, Liming Zhu, Wenjie Zhang,
- Abstract要約: PrivGemoは、メモリ誘導露光制御を備えたKG基底推論のための、プライバシ保護による検索強化フレームワークである。
PrivGemoは、すべてのトピックエンティティを接続する匿名のロングホップパスを取得することで、マルチホップ、マルチエンタリティ推論をサポートする。
総合的な最先端の結果を達成し、最強のベースラインを最大17.1%上回った。
- 参考スコア(独自算出の注目度): 23.125090024964674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) provide structured evidence that can ground large language model (LLM) reasoning for knowledge-intensive question answering. However, many practical KGs are private, and sending retrieved triples or exploration traces to closed-source LLM APIs introduces leakage risk. Existing privacy treatments focus on masking entity names, but they still face four limitations: structural leakage under semantic masking, uncontrollable remote interaction, fragile multi-hop and multi-entity reasoning, and limited experience reuse for stability and efficiency. To address these issues, we propose PrivGemo, a privacy-preserving retrieval-augmented framework for KG-grounded reasoning with memory-guided exposure control. PrivGemo uses a dual-tower design to keep raw KG knowledge local while enabling remote reasoning over an anonymized view that goes beyond name masking to limit both semantic and structural exposure. PrivGemo supports multi-hop, multi-entity reasoning by retrieving anonymized long-hop paths that connect all topic entities, while keeping grounding and verification on the local KG. A hierarchical controller and a privacy-aware experience memory further reduce unnecessary exploration and remote interactions. Comprehensive experiments on six benchmarks show that PrivGemo achieves overall state-of-the-art results, outperforming the strongest baseline by up to 17.1%. Furthermore, PrivGemo enables smaller models (e.g., Qwen3-4B) to achieve reasoning performance comparable to that of GPT-4-Turbo.
- Abstract(参考訳): 知識グラフ(KGs)は、知識集約的な質問応答のための大言語モデル(LLM)推論の基礎となる構造化された証拠を提供する。
しかし、多くの実用的なKGはプライベートであり、検索されたトリプルや探索トレースをクローズドソースのLLM APIに送信すると、リークリスクが発生する。
既存のプライバシ処理では、エンティティ名をマスキングすることに重点を置いているが、セマンティックマスクによる構造的漏洩、コントロール不能なリモートインタラクション、脆弱なマルチホップとマルチエンタリティ推論、安定性と効率のための限られたエクスペリエンス再利用の4つの制限に直面している。
これらの問題に対処するため,プライバシ保護型検索拡張フレームワークであるPrivGemoを提案する。
PrivGemoは、KGの生知識をローカルに保ちつつ、名前マスキングを越えて意味と構造の両方の露出を制限する匿名化ビューでのリモート推論を可能にするために、デュアルトウワー設計を使用している。
PrivGemoは、すべてのトピックエンティティを接続する匿名のロングホップパスを検索し、ローカルKGの基盤と検証を維持することで、マルチホップ、マルチエンタリティ推論をサポートする。
階層型コントローラとプライバシ対応エクスペリエンスメモリは、不要な探索とリモートインタラクションをさらに削減する。
6つのベンチマークに関する総合的な実験は、PrivGemoが全体の最先端の結果を達成し、最強のベースラインを最大17.1%上回ったことを示している。
さらに、PrivGemoはより小さなモデル(例えばQwen3-4B)で、GPT-4-Turboに匹敵する推論性能を実現することができる。
関連論文リスト
- GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Mechanism [14.491054279033968]
GAMA(General Anonymizing Multi-Agent System)
GAMAはエージェントのワークスペースをプライベートとパブリックに分割し、構造化された匿名化機構を通じてプライバシーを確保する。
GAMAを2つの一般的な質問応答データセット、公開プライバシーリークベンチマーク、およびプライバシに関連する2つのカスタマイズされた質問応答データセットで評価する。
論文 参考訳(メタデータ) (2025-09-12T07:22:49Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Doxing via the Lens: Revealing Location-related Privacy Leakage on Multi-modal Large Reasoning Models [37.18986847375693]
広告主は、ユーザ生成画像からセンシティブな位置情報を推測することができる。
DoxBenchは、さまざまなプライバシーシナリオを反映した500の現実世界の画像のキュレートされたデータセットである。
本研究は,MLRMにおける推論時プライバシーリスクの再評価の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-04-27T22:26:45Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - PrivLM-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [42.20437015301152]
言語モデル(LM)のプライバシー漏洩を評価するベンチマークであるPrivLM-Benchを提案する。
DPパラメータのみを報告するのではなく、PrivLM-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
メインストリームLMのためのGLUEの3つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。