論文の概要: Ask Safely: Privacy-Aware LLM Query Generation for Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2512.04852v1
- Date: Thu, 04 Dec 2025 14:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.221522
- Title: Ask Safely: Privacy-Aware LLM Query Generation for Knowledge Graphs
- Title(参考訳): Ask Safely:知識グラフのためのプライバシ対応LLMクエリ生成
- Authors: Mauro Dalle Lucca Tosi, Jordi Cabot,
- Abstract要約: 知識グラフ(KG)に対するプライバシ対応クエリ生成手法を提案する。
提案手法は,LLMに自然言語質問をCypherクエリに翻訳するよう要求する前に,その構造に基づいてグラフ内のセンシティブな情報を識別し,そのような値を省略する。
実験の結果,提案手法は生成したクエリの品質を保ちながら,機密データがサードパーティサービスに送信されることを防止していることがわかった。
- 参考スコア(独自算出の注目度): 2.338361654308822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used to query knowledge graphs (KGs) due to their strong semantic understanding and extrapolation capabilities compared to traditional approaches. However, these methods cannot be applied when the KG contains sensitive data and the user lacks the resources to deploy a local generative LLM. To address this issue, we propose a privacy-aware query generation approach for KGs. Our method identifies sensitive information in the graph based on its structure and omits such values before requesting the LLM to translate natural language questions into Cypher queries. Experimental results show that our approach preserves the quality of the generated queries while preventing sensitive data from being transmitted to third-party services.
- Abstract(参考訳): 大きな言語モデル(LLM)は、従来のアプローチと比較して強い意味理解と外挿能力のため、知識グラフ(KG)のクエリにますます使われています。
しかし、これらの手法は、KGに機密データが含まれており、ユーザがローカルな生成LDMをデプロイするリソースが不足している場合に適用できない。
そこで本研究では,KGに対するプライバシ対応クエリ生成手法を提案する。
提案手法は,LLMに自然言語質問をCypherクエリに翻訳するよう要求する前に,その構造に基づいてグラフ内のセンシティブな情報を識別し,そのような値を省略する。
実験の結果,提案手法は生成したクエリの品質を保ちながら,機密データがサードパーティサービスに送信されることを防止していることがわかった。
関連論文リスト
- Enhancing Manufacturing Knowledge Access with LLMs and Context-aware Prompting [9.520082987178851]
大きな言語モデル(LLM)は、自然言語クエリを自動的にSPARQLフォーマットに変換することができる。
我々は、知識グラフ(KG)からの情報検索を容易にするため、LCMを仲介者として利用する戦略を評価する。
この結果から,KGスキーマの適切なコンテキストのみを提供すると,LLMは正しいクエリと完全なクエリを生成する際の性能を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2025-07-30T12:39:01Z) - SPARQL Query Generation with LLMs: Measuring the Impact of Training Data Memorization and Knowledge Injection [81.78173888579941]
大規模言語モデル(LLM)は、質問応答機能の品質を高めるのに適した方法と考えられている。
LLMはWebデータに基づいてトレーニングされており、ベンチマークや知識グラフがトレーニングデータに含まれているかどうかを研究者は制御できない。
本稿では,自然言語質問からSPARQLクエリを生成し,LLMの品質を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-07-18T12:28:08Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Detecting Knowledge Boundary of Vision Large Language Models by Sampling-Based Inference [82.557441484339]
視覚大言語モデル(VLLM)の知識境界を検出する手法を提案する。
様々な種類の視覚質問応答データセットに対する実験結果から,本手法がVLLMの知識境界をうまく表現できることが判明した。
論文 参考訳(メタデータ) (2025-02-25T09:32:08Z) - Redefining Information Retrieval of Structured Database via Large Language Models [10.117751707641416]
本稿では,ChatLRと呼ばれる新しい検索拡張フレームワークを提案する。
主に、Large Language Models (LLM) の強力な意味理解能力を用いて、正確かつ簡潔な情報検索を実現する。
実験の結果、ChatLRがユーザクエリに対処する効果を示し、全体の情報検索精度は98.8%を超えた。
論文 参考訳(メタデータ) (2024-05-09T02:37:53Z) - Context Matters: Pushing the Boundaries of Open-Ended Answer Generation with Graph-Structured Knowledge Context [4.1229332722825]
本稿では,知識グラフに基づく拡張と合わせて,グラフ駆動型コンテキスト検索を組み合わせた新しいフレームワークを提案する。
我々は,様々なパラメータサイズを持つ大規模言語モデル(LLM)の実験を行い,知識の基盤化能力を評価し,オープンな質問に対する回答の事実的正確性を決定する。
われわれの方法であるGraphContextGenは、テキストベースの検索システムよりも一貫して優れており、その堅牢性と多くのユースケースへの適応性を実証している。
論文 参考訳(メタデータ) (2024-01-23T11:25:34Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。