論文の概要: Privacy-protected Retrieval-Augmented Generation for Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2508.08785v1
- Date: Tue, 12 Aug 2025 09:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.368199
- Title: Privacy-protected Retrieval-Augmented Generation for Knowledge Graph Question Answering
- Title(参考訳): 知識グラフ質問応答のためのプライバシー保護検索生成
- Authors: Yunfeng Ning, Mayi Xu, Jintao Wen, Qiankun Pi, Yuanyuan Zhu, Ming Zhong, Jiawei Jiang, Tieyun Qian,
- Abstract要約: プライバシ保護されたRAGシナリオを初めて検討し、そこでは、KGのエンティティがLLMに対して匿名である。
本稿では,関係中心の抽象化と構造指向の抽象化戦略を含む新しいARoGフレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.54009294783401
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: LLMs often suffer from hallucinations and outdated or incomplete knowledge. RAG is proposed to address these issues by integrating external knowledge like that in KGs into LLMs. However, leveraging private KGs in RAG systems poses significant privacy risks due to the black-box nature of LLMs and potential insecure data transmission, especially when using third-party LLM APIs lacking transparency and control. In this paper, we investigate the privacy-protected RAG scenario for the first time, where entities in KGs are anonymous for LLMs, thus preventing them from accessing entity semantics. Due to the loss of semantics of entities, previous RAG systems cannot retrieve question-relevant knowledge from KGs by matching questions with the meaningless identifiers of anonymous entities. To realize an effective RAG system in this scenario, two key challenges must be addressed: (1) How can anonymous entities be converted into retrievable information. (2) How to retrieve question-relevant anonymous entities. Hence, we propose a novel ARoG framework including relation-centric abstraction and structure-oriented abstraction strategies. For challenge (1), the first strategy abstracts entities into high-level concepts by dynamically capturing the semantics of their adjacent relations. It supplements meaningful semantics which can further support the retrieval process. For challenge (2), the second strategy transforms unstructured natural language questions into structured abstract concept paths. These paths can be more effectively aligned with the abstracted concepts in KGs, thereby improving retrieval performance. To guide LLMs to effectively retrieve knowledge from KGs, the two strategies strictly protect privacy from being exposed to LLMs. Experiments on three datasets demonstrate that ARoG achieves strong performance and privacy-robustness.
- Abstract(参考訳): LLMは幻覚や時代遅れや不完全な知識に悩まされることが多い。
RAGは、KGsのような外部知識をLLMに組み込むことにより、これらの問題を解決するために提案されている。
しかしながら、RAGシステムにおけるプライベートなKGの利用は、特に透明性と制御に欠けるサードパーティのLLM APIを使用する場合、LLMのブラックボックスの性質と潜在的な安全でないデータ転送のために、プライバシー上の重大なリスクをもたらす。
本稿では,プライバシ保護されたRAGシナリオを初めて検討する。そこでは,KG内のエンティティがLLMに対して匿名であることから,エンティティのセマンティクスへのアクセスを妨げている。
エンティティのセマンティクスが失われているため、従来のRAGシステムは匿名エンティティの無意味な識別子と質問をマッチングすることで、KGから質問関連知識を検索できない。
このシナリオで有効なRAGシステムを実現するためには,(1)匿名エンティティを検索可能な情報に変換する方法,という2つの課題に対処する必要がある。
2)質問関連匿名エンティティの検索方法
そこで本研究では,関係中心の抽象化と構造指向の抽象化戦略を含む新しいARoGフレームワークを提案する。
課題(1)では, 隣接する関係のセマンティクスを動的にキャプチャすることで, エンティティを高レベルな概念に抽象化する。
意味のあるセマンティクスを補完し、検索プロセスをさらにサポートする。
課題 (2) に対して、第二の戦略は、構造化されていない自然言語の質問を構造化された抽象的な概念パスに変換する。
これらの経路は、KGの抽象概念とより効果的に一致させることができるため、検索性能が向上する。
LLMがKGからの知識を効果的に取得するためには、プライバシーがLLMに晒されることを厳格に保護する2つの戦略がある。
3つのデータセットの実験は、ARoGが強力なパフォーマンスとプライバシロバスト性を達成していることを示している。
関連論文リスト
- KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - Logic Augmented Generation [1.534667887016089]
大きな言語モデル(LLM)はこれらの制限を克服し、オープンなタスクや非構造化環境に適している。
両世界の利点を組み合わせた論理拡張生成(LAG)を構想する。
LAGを総合的な知性、すなわち医療診断と気候予測の2つのタスクで実証する。
論文 参考訳(メタデータ) (2024-11-21T10:54:35Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。