論文の概要: Privacy-Preserving Graph Convolutional Networks for Text Classification
- arxiv url: http://arxiv.org/abs/2102.09604v1
- Date: Wed, 10 Feb 2021 15:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 15:41:15.224664
- Title: Privacy-Preserving Graph Convolutional Networks for Text Classification
- Title(参考訳): テキスト分類のためのプライバシー保護グラフ畳み込みネットワーク
- Authors: Timour Igamberdiev and Ivan Habernal
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフとして自然に発生する文書の表現学習と予測のための強力なアーキテクチャです。
人々のプロフィールや関係をエッジとして文書などの機密情報を含むデータは、GCNからのプライバシーリークを起こしやすいです。
プライバシーを守ったGCNは、非プライベートバリアントの90%まで性能を発揮し、強力なプライバシー対策を正式に保証しています。
- 参考スコア(独自算出の注目度): 3.5503507997334958
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph convolutional networks (GCNs) are a powerful architecture for
representation learning and making predictions on documents that naturally
occur as graphs, e.g., citation or social networks. Data containing sensitive
personal information, such as documents with people's profiles or relationships
as edges, are prone to privacy leaks from GCNs, as an adversary might reveal
the original input from the trained model. Although differential privacy (DP)
offers a well-founded privacy-preserving framework, GCNs pose theoretical and
practical challenges due to their training specifics. We address these
challenges by adapting differentially-private gradient-based training to GCNs.
We investigate the impact of various privacy budgets, dataset sizes, and two
optimizers in an experimental setup over five NLP datasets in two languages. We
show that, under certain modeling choices, privacy-preserving GCNs perform up
to 90% of their non-private variants, while formally guaranteeing strong
privacy measures.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフとして自然に発生する文書(例えば、引用やソーシャルネットワーク)の表現学習や予測を行うための強力なアーキテクチャである。
人々のプロファイルやエッジとしての関連性などの機密性の高い個人情報を含むデータは、トレーニングされたモデルからのオリジナルの入力を敵が明らかにする可能性があるため、GCNからのプライバシー漏洩を招きがちである。
差分プライバシー(DP)は十分に確立されたプライバシー保護フレームワークを提供しますが、GCNはトレーニングの詳細のために理論的および実用的な課題を提起します。
GCNに差分プライベートグラデーションベースのトレーニングを適用することで、これらの課題に対処します。
2つの言語の5つのNLPデータセットの実験セットアップにおいて、さまざまなプライバシー予算、データセットサイズ、および2つのオプティマイザの影響を調査します。
特定のモデリング選択の下では、プライバシ保存型gcnは、公式には強力なプライバシ対策を保証しながら、非プライベート型の最大90%を実行する。
関連論文リスト
- GCON: Differentially Private Graph Convolutional Network via Objective Perturbation [27.279817693305183]
Graph Convolutional Networks (GCNs)は、グラフ分析に幅広い応用がある一般的な機械学習モデルである。
基礎となるグラフデータが対人関係などの機密情報を含んでいる場合、プライバシー保護措置なしで訓練されたGCNを利用してプライベートデータを抽出することができる。
本稿では,GCNをエッジ差分プライバシでトレーニングするための,新しい効果的なソリューションであるGCONを提案する。
論文 参考訳(メタデータ) (2024-07-06T09:59:56Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - LinkTeller: Recovering Private Edges from Graph Neural Networks via
Influence Analysis [15.923158902023669]
エッジのプライバシに重点を置いて,ノード機能を備えたBobがまず,隣接情報を所有するAliceにトレーニングノード機能を送信するという,トレーニングシナリオを検討しています。
まず、Aliceが保持するプライベートエッジ情報を推測するために、影響分析によるプライバシ攻撃LinkTellerを提案する。
その後、LinkTellerが膨大な量のプライベートエッジを回復できることを実証的に示し、既存のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-08-14T09:53:42Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。