論文の概要: Eliminating Label Leakage in Tree-Based Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2307.10318v1
- Date: Wed, 19 Jul 2023 06:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:07:34.917143
- Title: Eliminating Label Leakage in Tree-Based Vertical Federated Learning
- Title(参考訳): tree-based vertical federated learningにおけるラベル漏洩の除去
- Authors: Hideaki Takahashi, Jingjing Liu, Yang Liu
- Abstract要約: 我々は,新たなラベル推論攻撃であるID2Graphを導入し,プライベートトレーニングラベルを推論する。
ID2Graph攻撃は、ランダムフォレストやXGBoostのようなツリーベースのモデルに重大なリスクをもたらす。
本稿では,相互情報正規化に着目し,ラベルの漏洩を防止する効果的な防御機構ID-LMIDを提案する。
- 参考スコア(独自算出の注目度): 12.578470921298752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) enables multiple parties with disjoint
features of a common user set to train a machine learning model without sharing
their private data. Tree-based models have become prevalent in VFL due to their
interpretability and efficiency. However, the vulnerability of tree-based VFL
has not been sufficiently investigated. In this study, we first introduce a
novel label inference attack, ID2Graph, which utilizes the sets of record-IDs
assigned to each node (i.e., instance space) to deduce private training labels.
The ID2Graph attack generates a graph structure from training samples, extracts
communities from the graph, and clusters the local dataset using community
information. To counteract label leakage from the instance space, we propose an
effective defense mechanism, ID-LMID, which prevents label leakage by focusing
on mutual information regularization. Comprehensive experiments conducted on
various datasets reveal that the ID2Graph attack presents significant risks to
tree-based models such as Random Forest and XGBoost. Further evaluations on
these benchmarks demonstrate that ID-LMID effectively mitigates label leakage
in such instances.
- Abstract(参考訳): 垂直連合学習(VFL)は、プライベートデータを共有せずに機械学習モデルをトレーニングするための共通ユーザセットの分離した特徴を持つ複数のパーティを可能にする。
木に基づくモデルは、その解釈可能性と効率性のためにVFLで普及している。
しかし,木系VFLの脆弱性は十分に調査されていない。
本研究では,まず,各ノード(インスタンス空間)に割り当てられたレコードIDの集合を利用して,プライベートなトレーニングラベルを推論する新しいラベル推論攻撃ID2Graphを提案する。
ID2Graph攻撃は、トレーニングサンプルからグラフ構造を生成し、グラフからコミュニティを抽出し、コミュニティ情報を使用してローカルデータセットをクラスタ化する。
実例空間からのラベルリーク対策として, 相互情報正規化に着目し, ラベルリークを防止する効果的な防御機構ID-LMIDを提案する。
ID2Graph攻撃はランダムフォレストやXGBoostのような木に基づくモデルに重大なリスクをもたらす。
これらのベンチマークのさらなる評価は、ID-LMIDがラベルの漏洩を効果的に軽減することを示している。
関連論文リスト
- Federated Contrastive Learning of Graph-Level Representations [10.092560681589577]
グラフレベルの表現(FCLG)の相互比較学習
本稿では,グラフレベル表現のFederated Contrastive Learning of Graph-level Representations(FCLG)と呼ぶ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T22:10:31Z) - LEGO-Learn: Label-Efficient Graph Open-Set Learning [46.62885412695813]
グラフオープンセット学習(GOL)とアウト・オブ・ディストリビューション(OOD)の検出は、既知のイン・ディストリビューション(ID)クラスを正確に分類可能なトレーニングモデルによってこの問題に対処することを目的としている。
モデルが金融、セキュリティ、ヘルスケアといった予期せぬデータに頻繁に遭遇する、高度な現実世界のアプリケーションにとって、これは重要なことです。
LEGO-Learnは,ラベルの予算内で,最も情報性の高いIDノードを選択することで,グラフ上のオープンセットノード分類に取り組む新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-21T18:01:11Z) - DPGAN: A Dual-Path Generative Adversarial Network for Missing Data Imputation in Graphs [17.847551850315895]
本稿では,DPGAN(Dual-Pathrative Adversarial Network)と呼ばれる新しいフレームワークを提案する。
DPGANは、欠落したデータと同時に処理し、過度にスムースな問題を回避することができる。
さまざまなベンチマークデータセットにわたる総合的な実験は、DPGANが既存の最先端の計算アルゴリズムよりも優れていなくても、一貫して競合していることを裏付けている。
論文 参考訳(メタデータ) (2024-04-26T05:26:10Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Label Inference Attacks against Node-level Vertical Federated GNNs [26.80658307067889]
ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
論文 参考訳(メタデータ) (2023-08-04T17:04:58Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Unsupervised Person Re-identification via Multi-Label Prediction and
Classification based on Graph-Structural Insight [1.7894377200944507]
本稿では,多ラベル予測とグラフ構造的洞察に基づく分類を用いた教師なし人物再識別(Re-ID)について述べる。
提案手法は,人物画像から特徴を抽出し,特徴と特徴をノードとエッジとして相互に類似したグラフを生成する。
グラフに基づいて,提案したグラフ構造に基づくマルチラベル予測(GSMLP)法は,各ノードのペアの類似性と隣接ノード分布を考慮したマルチラベルの予測を行う。
論文 参考訳(メタデータ) (2021-06-16T14:00:40Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。