論文の概要: Towards Privacy-Preserving Split Learning: Destabilizing Adversarial Inference and Reconstruction Attacks in the Cloud
- arxiv url: http://arxiv.org/abs/2502.20629v1
- Date: Fri, 28 Feb 2025 01:24:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:40:11.281795
- Title: Towards Privacy-Preserving Split Learning: Destabilizing Adversarial Inference and Reconstruction Attacks in the Cloud
- Title(参考訳): プライバシ保護のためのスプリットラーニング - クラウドにおける逆推論とリコンストラクションアタックの安定化
- Authors: Griffin Higgins, Roozbeh Razavi-Far, Xichen Zhang, Amir David, Ali Ghorbani, Tongyu Ge,
- Abstract要約: この作業は、スプリットラーニングフレームワーク内で、プライバシとユーティリティの両方を提供することを目的としている。
プラグイン戦略としてクラスアクティベーションマップとオートエンコーダを利用する新しい手法が提案されている。
- 参考スコア(独自算出の注目度): 2.140790062783382
- License:
- Abstract: This work aims to provide both privacy and utility within a split learning framework while considering both forward attribute inference and backward reconstruction attacks. To address this, a novel approach has been proposed, which makes use of class activation maps and autoencoders as a plug-in strategy aiming to increase the user's privacy and destabilize an adversary. The proposed approach is compared with a dimensionality-reduction-based plug-in strategy, which makes use of principal component analysis to transform the feature map onto a lower-dimensional feature space. Our work shows that our proposed autoencoder-based approach is preferred as it can provide protection at an earlier split position over the tested architectures in our setting, and, hence, better utility for resource-constrained devices in edge-cloud collaborative inference (EC) systems.
- Abstract(参考訳): この研究は、フォワード属性推論と後方再構築攻撃の両方を考慮して、スプリットラーニングフレームワーク内でプライバシとユーティリティの両方を提供することを目的としている。
これを解決するために,ユーザプライバシの向上と敵の不安定化を目的としたプラグイン戦略として,クラスアクティベーションマップとオートエンコーダを利用する新たなアプローチが提案されている。
提案手法は,特徴写像を低次元特徴空間に変換するために主成分分析を利用する次元還元型プラグイン戦略と比較する。
我々の研究は、提案したオートエンコーダベースのアプローチが、我々の設定においてテストされたアーキテクチャよりも早く分割された位置で保護できるため、エッジクラウドコラボレーティブ推論(EC)システムにおけるリソース制約されたデバイスに対するより良いユーティリティを提供するため、好ましいことを示している。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Actor-Critic Network for Q&A in an Adversarial Environment [0.0]
2つの重要な領域は、これらの状況に対するトレーニングや、内部で堅牢性を構築するために既存のアーキテクチャを変更する目的で、敵対的なデータを生成することである。
本稿では,これら2つのアイデアを組み合わさって,ほぼ強化学習フレームワークで使用する批評家モデルを訓練するアプローチを紹介する。
論文 参考訳(メタデータ) (2022-01-03T02:35:58Z) - StratLearner: Learning a Strategy for Misinformation Prevention in
Social Networks [6.457205049532316]
我々は、基礎となる拡散モデルを知ることなく、将来の攻撃者に対するプロテクターの計算戦略を学ぶ。
本手法は拡散モデルの情報を使わずに準最適プロテクターを生成できる。
論文 参考訳(メタデータ) (2020-09-29T22:58:33Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Topology-aware Differential Privacy for Decentralized Image
Classification [81.2202290003513]
Top-DPは、分散画像分類システムの差分プライバシー保護を最適化するための新しいソリューションである。
我々は、分散化された通信トポロジのユニークな特徴を活用し、ノイズスケールを小さくし、モデルのユーザビリティを向上させる。
論文 参考訳(メタデータ) (2020-06-14T06:42:21Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。