論文の概要: Privacy-Preserved Neural Graph Databases
- arxiv url: http://arxiv.org/abs/2312.15591v4
- Date: Mon, 26 Feb 2024 02:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 11:41:34.322512
- Title: Privacy-Preserved Neural Graph Databases
- Title(参考訳): プライバシー保護型ニューラルグラフデータベース
- Authors: Qi Hu, Haoran Li, Jiaxin Bai, Zihao Wang, Yangqiu Song
- Abstract要約: NGDBにおけるプライバシー漏洩のリスクを軽減するために,プライバシ保存型ニューラルグラフデータベース(P-NGDB)フレームワークを提案する。
本研究は,NGDBを訓練段階に導入し,個人情報で質問したときの識別不能な回答を生成する。
- 参考スコア(独自算出の注目度): 52.1165903128359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of large language models (LLMs), efficient and accurate data
retrieval has become increasingly crucial for the use of domain-specific or
private data in the retrieval augmented generation (RAG). Neural graph
databases (NGDBs) have emerged as a powerful paradigm that combines the
strengths of graph databases (GDBs) and neural networks to enable efficient
storage, retrieval, and analysis of graph-structured data which can be
adaptively trained with LLMs. The usage of neural embedding storage and Complex
neural logical Query Answering (CQA) provides NGDBs with generalization
ability. When the graph is incomplete, by extracting latent patterns and
representations, neural graph databases can fill gaps in the graph structure,
revealing hidden relationships and enabling accurate query answering.
Nevertheless, this capability comes with inherent trade-offs, as it introduces
additional privacy risks to the domain-specific or private databases. Malicious
attackers can infer more sensitive information in the database using
well-designed queries such as from the answer sets of where Turing Award
winners born before 1950 and after 1940 lived, the living places of Turing
Award winner Hinton are probably exposed, although the living places may have
been deleted in the training stage due to the privacy concerns. In this work,
we propose a privacy-preserved neural graph database (P-NGDB) framework to
alleviate the risks of privacy leakage in NGDBs. We introduce adversarial
training techniques in the training stage to enforce the NGDBs to generate
indistinguishable answers when queried with private information, enhancing the
difficulty of inferring sensitive information through combinations of multiple
innocuous queries.
- Abstract(参考訳): 大規模言語モデル (LLM) の時代には, ドメイン固有データやプライベートデータを用いた検索拡張(RAG)において, 効率的かつ正確なデータ検索がますます重要になっている。
グラフデータベース(GDB)は、グラフデータベース(GDB)とニューラルネットワークの強みを組み合わせた強力なパラダイムとして登場し、LLMで適応的にトレーニング可能なグラフ構造化データの効率的な保存、検索、分析を可能にしている。
neural embedded storage と complex neural logical query answering (cqa) を使用することで、ngdb は一般化が可能となる。
グラフが不完全である場合、潜在パターンと表現を抽出することにより、ニューラルネットワークはグラフ構造のギャップを埋め、隠れた関係を明らかにし、正確なクエリ応答を可能にする。
それにもかかわらず、この機能はドメイン固有またはプライベートデータベースにさらなるプライバシーリスクをもたらすため、固有のトレードオフを伴う。
悪意のある攻撃者は、1950年以前のチューリング賞の受賞者が1940年以降に生まれ、チューリング賞の受賞者の居住地がおそらく露出する可能性があるが、プライバシー上の懸念から、居住地がトレーニング段階で削除された可能性があるという回答セットから、データベース内のより繊細な情報を推測することができる。
本研究では,NGDBにおけるプライバシリークのリスクを軽減するために,プライバシ保存型ニューラルグラフデータベース(P-NGDB)フレームワークを提案する。
学習段階では,複数の無意味な問合せを組み合わせることで,機密情報の推測の困難さを増大させるため,ngdbsに識別不能な回答を生成するよう強制する。
関連論文リスト
- GCON: Differentially Private Graph Convolutional Network via Objective Perturbation [27.279817693305183]
Graph Convolutional Networks (GCNs)は、グラフ分析に幅広い応用がある一般的な機械学習モデルである。
基礎となるグラフデータが対人関係などの機密情報を含んでいる場合、プライバシー保護措置なしで訓練されたGCNを利用してプライベートデータを抽出することができる。
本稿では,GCNをエッジ差分プライバシでトレーニングするための,新しい効果的なソリューションであるGCONを提案する。
論文 参考訳(メタデータ) (2024-07-06T09:59:56Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy [43.11374582152925]
グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
論文 参考訳(メタデータ) (2023-06-14T16:11:00Z) - Neural Graph Reasoning: Complex Logical Query Answering Meets Graph
Databases [63.96793270418793]
複雑な論理クエリ応答(CLQA)は、グラフ機械学習の最近登場したタスクである。
ニューラルグラフデータベース(NGDB)の概念を紹介する。
NGDBはNeural Graph StorageとNeural Graph Engineで構成されている。
論文 参考訳(メタデータ) (2023-03-26T04:03:37Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。