論文の概要: Federated Unlearning: a Perspective of Stability and Fairness
- arxiv url: http://arxiv.org/abs/2402.01276v3
- Date: Mon, 12 Feb 2024 05:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 20:32:23.845968
- Title: Federated Unlearning: a Perspective of Stability and Fairness
- Title(参考訳): フェデレート・アンラーニング:安定性と公正性の観点から
- Authors: Jiaqi Shao, Tao Lin, Xuanyu Cao, Bing Luo
- Abstract要約: 本稿では,フェデレーション付きアンラーニング(FU)の多面的結果とデータ不均一性について考察する。
我々は,FU評価の重要な指標を紹介し,検証,グローバル安定性,局所公正性に着目し,固有のトレードオフについて検討する。
本稿では, FU機構のさらなる発展を導くため, トレードオフ管理のためのFU機構を提案する。
- 参考スコア(独自算出の注目度): 7.661153850706507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the multifaceted consequences of federated unlearning
(FU) with data heterogeneity. We introduce key metrics for FU assessment,
concentrating on verification, global stability, and local fairness, and
investigate the inherent trade-offs. Furthermore, we formulate the unlearning
process with data heterogeneity through an optimization framework. Our key
contribution lies in a comprehensive theoretical analysis of the trade-offs in
FU and provides insights into data heterogeneity's impacts on FU. Leveraging
these insights, we propose FU mechanisms to manage the trade-offs, guiding
further development for FU mechanisms. We empirically validate that our FU
mechanisms effectively balance trade-offs, confirming insights derived from our
theoretical analysis.
- Abstract(参考訳): 本稿では,フェデレートアンラーニング(FU)とデータ不均一性の多面的結果について検討する。
我々は,FU評価の重要な指標を紹介し,検証,グローバル安定性,局所公正性に着目し,固有のトレードオフについて検討する。
さらに,最適化フレームワークを用いて,データ不均質性を用いた学習プロセスを定式化する。
我々の重要な貢献は、FUにおけるトレードオフに関する包括的な理論的分析であり、FUに対するデータ不均一性の影響に関する洞察を提供する。
これらの知見を生かして,これらのトレードオフを管理するためのFU機構を提案する。
我々は、我々のFUメカニズムがトレードオフを効果的にバランスし、理論解析から得られた洞察を実証する。
関連論文リスト
- EXAGREE: Towards Explanation Agreement in Explainable Machine Learning [0.0]
機械学習における説明は、信頼、透明性、公平性に不可欠である。
本稿では,説明可能な機械学習における多種多様な解釈を橋渡しする新しいフレームワークであるExplanation AGREEmentを紹介する。
論文 参考訳(メタデータ) (2024-11-04T10:28:38Z) - Counterfactual Fairness by Combining Factual and Counterfactual Predictions [18.950415688199993]
医療や雇用といった高度な分野において、意思決定における機械学習(ML)の役割は、かなりの公平さの懸念を提起する。
この研究は、あらゆる個人に対するMLモデルの結果が、異なる人口集団に属していた場合、変化しないべきであると仮定する対実公正(CF)に焦点を当てている。
本稿では,CFと予測性能のトレードオフをモデルに依存しない形で理論的に検討する。
論文 参考訳(メタデータ) (2024-09-03T15:21:10Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Causality-Aided Trade-off Analysis for Machine Learning Fairness [11.149507394656709]
本稿では,機械学習パイプラインにおける公平度パラメータと他の重要な指標とのトレードオフを解析するための原理的手法として因果解析を用いる。
本稿では、正確な因果発見を容易にするためのドメイン固有最適化と、確立された因果推論手法に基づくトレードオフ解析のための統一されたインターフェースを提案する。
論文 参考訳(メタデータ) (2023-05-22T14:14:43Z) - SIFU: Sequential Informed Federated Unlearning for Efficient and Provable Client Unlearning in Federated Optimization [23.064896326146386]
Machine Unlearning(MU)は、トレーニング手順から与えられたデータポイントのコントリビューションを削除することを目的としている。
フェデレーテッド・アンラーニング(FU)手法が提案されている一方で,新しい手法としてSIFU(Sequential Informed Unlearning)を提案する。
論文 参考訳(メタデータ) (2022-11-21T17:15:46Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Relative Feature Importance [1.4474137122906163]
相対的特徴重要度(RFI)は、置換特徴重要度(PFI)と条件的特徴重要度(CFI)の一般化である。
RFIは、PFI対CFI二分法を超えて、より微妙な特徴重要度計算を可能にする。
相対的特徴関連性の意味の詳細な理論的解析に基づいて、RFIの一般的な解釈規則を導出する。
論文 参考訳(メタデータ) (2020-07-16T12:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。