論文の概要: Ferrari: Federated Feature Unlearning via Optimizing Feature Sensitivity
- arxiv url: http://arxiv.org/abs/2405.17462v2
- Date: Wed, 29 May 2024 17:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 11:23:10.971080
- Title: Ferrari: Federated Feature Unlearning via Optimizing Feature Sensitivity
- Title(参考訳): Ferrari: 機能感度の最適化によるフェデレーション機能非学習
- Authors: Hanlin Gu, WinKent Ong, Chee Seng Chan, Lixin Fan,
- Abstract要約: 連邦学習(FL)の出現は、すべての顧客にとって「忘れられる権利」の実践的な必要性を強調している。
未学習のセンシティブな機能、バックドア機能、バイアス機能などに応用されているため、フィーチャーアンラーニングは大きな注目を集めている。
既存の手法では、非学習プロセスにおいて他のクライアントの参加を必要とするため、FLでは現実的ではない機能非学習を実現するために影響関数を採用している。
本稿では,フェラーリと呼ばれる機能非学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.800865928660954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of Federated Learning (FL) highlights the practical necessity for the 'right to be forgotten' for all clients, allowing them to request data deletion from the machine learning model's service provider. This necessity has spurred a growing demand for Federated Unlearning (FU). Feature unlearning has gained considerable attention due to its applications in unlearning sensitive features, backdoor features, and bias features. Existing methods employ the influence function to achieve feature unlearning, which is impractical for FL as it necessitates the participation of other clients in the unlearning process. Furthermore, current research lacks an evaluation of the effectiveness of feature unlearning. To address these limitations, we define feature sensitivity in the evaluation of feature unlearning according to Lipschitz continuity. This metric characterizes the rate of change or sensitivity of the model output to perturbations in the input feature. We then propose an effective federated feature unlearning framework called Ferrari, which minimizes feature sensitivity. Extensive experimental results and theoretical analysis demonstrate the effectiveness of Ferrari across various feature unlearning scenarios, including sensitive, backdoor, and biased features.
- Abstract(参考訳): FL(Federated Learning)の出現は、すべてのクライアントが“忘れられる権利(right to be forget)”という現実的な必要性を強調し、機械学習モデルのサービスプロバイダからデータ削除を要求することを可能にする。
この必要性は、フェデレート・アンラーニング(FU)の需要を増大させた。
未学習のセンシティブな機能、バックドア機能、バイアス機能などに応用されているため、フィーチャーアンラーニングは大きな注目を集めている。
既存の手法では、非学習プロセスにおいて他のクライアントの参加を必要とするため、FLでは現実的ではない機能非学習を実現するために影響関数を採用している。
さらに、現在の研究では、特徴学習の有効性の評価が欠如している。
これらの制約に対処するため,Lipschitz連続性に基づく特徴未学習の評価において,特徴感度を定義する。
この計量は、入力特徴における摂動に対するモデル出力の変化率または感度を特徴づける。
次に、フェラーリと呼ばれる機能非学習フレームワークを提案し、機能感度を最小化する。
大規模な実験結果と理論的分析は、センシティブ、バックドア、バイアスのある特徴を含む、さまざまな非学習シナリオにおけるフェラーリの有効性を示している。
関連論文リスト
- Unveiling Hidden Factors: Explainable AI for Feature Boosting in Speech Emotion Recognition [17.568724398229232]
音声感情認識(SER)は、メンタルヘルス、教育、人間とコンピュータの相互作用など、いくつかの応用分野から注目されている。
本研究では,機械学習モデルの性能向上のための特徴関連性と説明可能性を強調した,SERの反復的特徴増強手法を提案する。
提案手法の有効性をトロントの感情音声セット(TESS)、ベルリンの感情音声データベース(EMO-DB)、Ryersonの感情音声データベース(RAVDESS)、Surrey Audio-Visual Expressed Emotioned Emotion(SAVEE)データセットのSERベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-01T00:39:55Z) - Vlearn: Off-Policy Learning with Efficient State-Value Function Estimation [22.129001951441015]
既存の非政治強化学習アルゴリズムは、しばしば明示的な状態-作用-値関数表現に依存している。
この信頼性は、高次元の作用空間における状態-作用値関数の維持が困難なデータ非効率をもたらす。
本稿では,非政治的な深層強化学習に対する批判として,状態値関数のみを利用する効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-07T12:45:51Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Self-supervised remote sensing feature learning: Learning Paradigms,
Challenges, and Future Works [9.36487195178422]
本稿では、非教師付き特徴学習(USFL)、教師付き特徴学習(SFL)、自己教師付き特徴学習(SSFL)の3つの特徴学習パラダイムを分析し比較する。
この統合されたフレームワークでは、RSI理解タスクにおける他の2つの学習パラダイムよりもSSFLの利点を分析する。
SSFL信号と事前学習データが学習特徴に与える影響を分析し,RSI特徴学習を改善するための洞察を提供する。
論文 参考訳(メタデータ) (2022-11-15T13:32:22Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Adma: A Flexible Loss Function for Neural Networks [0.0]
私たちは、現在利用可能な損失関数が静的なプラグインではなく、デフォルトでは柔軟であるべきだという考えを思いついた。
フレキシブルな損失関数は、より高い収束率につながるニューラルネットワークのより洞察に富んだナビゲータになり得る。
ニューラルネットワークに新しいフレキシブル・ロス関数を導入する。
論文 参考訳(メタデータ) (2020-07-23T02:41:09Z) - Feature Selection Library (MATLAB Toolbox) [1.2058143465239939]
Feature Selection Library (FSLib) には、FSアルゴリズムの包括的なスイートが導入されている。
FSLibは次元の呪いに対処し、計算負荷を減らし、モデルの一般化性を高める。
FSLibは、重要な特徴を明らかにし、パターン認識と理解を支援することで、データの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2016-07-05T16:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。