論文の概要: Privacy-Preserving Neural Graph Databases
- arxiv url: http://arxiv.org/abs/2312.15591v1
- Date: Mon, 25 Dec 2023 02:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:28:36.117290
- Title: Privacy-Preserving Neural Graph Databases
- Title(参考訳): プライバシー保護型ニューラルグラフデータベース
- Authors: Qi Hu, Haoran Li, Jiaxin Bai, Yangqiu Song
- Abstract要約: NGDBにおけるプライバシリークのリスクを軽減するために,プライバシ保存型ニューラルネットワークデータベース(P-NGDB)を提案する。
本研究は,NGDBに対して,個人情報で質問した場合の識別不能な回答を強制する訓練段階において,逆行訓練手法を導入する。
- 参考スコア(独自算出の注目度): 47.7183607950664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of big data and rapidly evolving information systems, efficient
and accurate data retrieval has become increasingly crucial. Neural graph
databases (NGDBs) have emerged as a powerful paradigm that combines the
strengths of graph databases (graph DBs) and neural networks to enable
efficient storage, retrieval, and analysis of graph-structured data. The usage
of neural embedding storage and complex neural logical query answering provides
NGDBs with generalization ability. When the graph is incomplete, by extracting
latent patterns and representations, neural graph databases can fill gaps in
the graph structure, revealing hidden relationships and enabling accurate query
answering. Nevertheless, this capability comes with inherent trade-offs, as it
introduces additional privacy risks to the database. Malicious attackers can
infer more sensitive information in the database using well-designed
combinatorial queries, such as by comparing the answer sets of where Turing
Award winners born before 1950 and after 1940 lived, the living places of
Turing Award winner Hinton are probably exposed, although the living places may
have been deleted in the training due to the privacy concerns. In this work,
inspired by the privacy protection in graph embeddings, we propose a
privacy-preserving neural graph database (P-NGDB) to alleviate the risks of
privacy leakage in NGDBs. We introduce adversarial training techniques in the
training stage to force the NGDBs to generate indistinguishable answers when
queried with private information, enhancing the difficulty of inferring
sensitive information through combinations of multiple innocuous queries.
Extensive experiment results on three datasets show that P-NGDB can effectively
protect private information in the graph database while delivering high-quality
public answers responses to queries.
- Abstract(参考訳): ビッグデータと急速に進化する情報システムの時代、効率的で正確なデータ検索がますます重要になっている。
グラフデータベース(グラフDB)とニューラルネットワークの強みを組み合わせて、グラフ構造化データの効率的な保存、検索、分析を可能にする強力なパラダイムとして、NGDBが登場した。
ニューラルネットワーク埋め込みストレージと複雑なニューラルネットワーク論理クエリ応答の使用は、ngdbに一般化能力を提供する。
グラフが不完全である場合、潜在パターンと表現を抽出することにより、ニューラルネットワークはグラフ構造のギャップを埋め、隠れた関係を明らかにし、正確なクエリ応答を可能にする。
それでも、データベースにさらなるプライバシーリスクをもたらすため、この機能には固有のトレードオフが伴う。
悪意のある攻撃者は、1950年より前にチューリング賞受賞者が1940年以降に誕生した場所を比較し、おそらくチューリング賞受賞者のHintonの居住地を暴露するなど、よく設計された組合せクエリを使ってデータベース内のより機密性の高い情報を推測することができる。
本研究は,グラフ埋め込みにおけるプライバシ保護に着想を得て,NGDBにおけるプライバシ漏洩のリスクを軽減するために,プライバシ保存型ニューラルネットワーク(P-NGDB)を提案する。
学習段階では,複数の無意味な問合せを組み合わせることで,機密情報の推測の困難さを増大させるため,ngdbに識別不能な回答を強制的に生成させる手法を提案する。
3つのデータセットの広範な実験結果から、p-ngdbはグラフデータベース内のプライベート情報を効果的に保護し、クエリに対して高品質なパブリック回答を配信できることが分かる。
関連論文リスト
- RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
本稿では,リレーショナルデータベースの特徴を捉えた新しいGNNフレームワークであるRelGNNを紹介する。
我々のアプローチの核となるのは、高次三部構造を形成するノードの列である原子経路の導入である。
RelGNNは、最先端の精度を最大25%改善して一貫して達成している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Top Ten Challenges Towards Agentic Neural Graph Databases [56.92578700681306]
Neo4jやTigerGraphのようなグラフデータベース(GDB)は相互接続されたデータを扱うのが得意だが、高度な推論機能が欠けている。
本稿では,NGDBを3つのコア機能で拡張するエージェント型ニューラルネットワークデータベース(Agentic NGDB)を提案する。
論文 参考訳(メタデータ) (2025-01-24T04:06:50Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy [43.11374582152925]
グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
論文 参考訳(メタデータ) (2023-06-14T16:11:00Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。