論文の概要: Fair Distributed Machine Learning with Imbalanced Data as a Stackelberg Evolutionary Game
- arxiv url: http://arxiv.org/abs/2412.16079v1
- Date: Fri, 20 Dec 2024 17:23:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:53.741721
- Title: Fair Distributed Machine Learning with Imbalanced Data as a Stackelberg Evolutionary Game
- Title(参考訳): Stackelberg進化ゲームとしての不均衡データによる公平な分散機械学習
- Authors: Sebastian Niehaus, Ingo Roeder, Nico Scherf,
- Abstract要約: 分散学習はStackelbergの進化ゲームだと考えている。
3つの医学データセットを用いて、分散学習における不足表現ノードに対する動的重み付けの影響を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Decentralised learning enables the training of deep learning algorithms without centralising data sets, resulting in benefits such as improved data privacy, operational efficiency and the fostering of data ownership policies. However, significant data imbalances pose a challenge in this framework. Participants with smaller datasets in distributed learning environments often achieve poorer results than participants with larger datasets. Data imbalances are particularly pronounced in medical fields and are caused by different patient populations, technological inequalities and divergent data collection practices. In this paper, we consider distributed learning as an Stackelberg evolutionary game. We present two algorithms for setting the weights of each node's contribution to the global model in each training round: the Deterministic Stackelberg Weighting Model (DSWM) and the Adaptive Stackelberg Weighting Model (ASWM). We use three medical datasets to highlight the impact of dynamic weighting on underrepresented nodes in distributed learning. Our results show that the ASWM significantly favours underrepresented nodes by improving their performance by 2.713% in AUC. Meanwhile, nodes with larger datasets experience only a modest average performance decrease of 0.441%.
- Abstract(参考訳): 分散学習は、データセットを集中化せずにディープラーニングアルゴリズムのトレーニングを可能にし、データプライバシの改善、運用効率の向上、データ所有権ポリシーの促進といったメリットをもたらす。
しかし、このフレームワークでは重要なデータ不均衡が問題となる。
分散学習環境における小さなデータセットの参加者は、より大きなデータセットの参加者よりも悪い結果が得られることが多い。
データ不均衡は特に医学分野において顕著であり、異なる患者集団、技術的不平等、ばらばらなデータ収集の慣行によって引き起こされる。
本稿では,分散学習をStackelberg進化ゲームと考える。
本稿では,各トレーニングラウンドにおける各ノードのグローバルモデルへの寄与度を設定するアルゴリズムとして,DSWM(Deterministic Stackelberg Weighting Model)とASWM(Adaptive Stackelberg Weighting Model)の2つを提案する。
3つの医学データセットを用いて、分散学習における不足表現ノードに対する動的重み付けの影響を明らかにする。
以上の結果から,ASWMはAUCの2.713%の性能向上により,未表現ノードを有意に好んでいることがわかった。
一方、より大きなデータセットを持つノードは、わずかに平均パフォーマンスが0.441%低下したのみである。
関連論文リスト
- Enhancing Performance for Highly Imbalanced Medical Data via Data Regularization in a Federated Learning Setting [6.22153888560487]
本手法の目的は,心血管疾患予測のためのモデル性能を向上させることである。
本手法は, 心臓血管疾患予測のための4つのデータセットにまたがって評価され, 異なるクライアントに分散している。
論文 参考訳(メタデータ) (2024-05-30T19:15:38Z) - Few-shot learning for COVID-19 Chest X-Ray Classification with
Imbalanced Data: An Inter vs. Intra Domain Study [49.5374512525016]
医療画像データセットは、コンピュータ支援診断、治療計画、医学研究に使用される訓練モデルに不可欠である。
データ分散のばらつき、データの不足、ジェネリックイメージから事前トレーニングされたモデルを使用する場合の転送学習の問題などである。
本稿では,データ不足と分散不均衡の影響を軽減するために,一連の手法を統合したシームズニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T16:59:27Z) - Evaluating and Incentivizing Diverse Data Contributions in Collaborative
Learning [89.21177894013225]
フェデレートされた学習モデルがうまく機能するためには、多様で代表的なデータセットを持つことが不可欠である。
データの多様性を定量化するために用いられる統計的基準と、使用するフェデレート学習アルゴリズムの選択が、結果の平衡に有意な影響を及ぼすことを示す。
我々はこれを活用して、データ収集者がグローバルな人口を代表するデータに貢献することを奨励する、シンプルな最適なフェデレーション学習機構を設計する。
論文 参考訳(メタデータ) (2023-06-08T23:38:25Z) - Investigating Group Distributionally Robust Optimization for Deep
Imbalanced Learning: A Case Study of Binary Tabular Data Classification [0.44040106718326594]
不均衡学習のための群分散ロバスト最適化(gDRO)について検討した。
経験的リスク最小化法 (ERM) と古典的不均衡法との比較実験により, gDROの優れた性能が示された。
論文 参考訳(メタデータ) (2023-03-04T21:20:58Z) - Decentralized Learning with Multi-Headed Distillation [12.90857834791378]
プライベートデータによる分散学習は、機械学習の中心的な問題である。
本研究では, 個別の非IDデータを持つ複数のエージェントが相互に学習できる, 蒸留に基づく分散学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-28T21:01:43Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Generic Semi-Supervised Adversarial Subject Translation for Sensor-Based
Human Activity Recognition [6.2997667081978825]
本稿では,人間活動認識における半教師付きドメイン適応のための,新しい汎用的で堅牢なアプローチを提案する。
本手法は,対象対象対象と対象対象対象対象からのみ注釈付きサンプルからの知識を活用することにより,問題点に対処するための敵対的枠組みの利点を生かしている。
その結果,提案手法が最先端手法に対して有効であることを示し,オポチュニティ,LISSI,PAMAP2データセットの高レベルのアクティビティ認識指標を最大13%,4%,13%改善した。
論文 参考訳(メタデータ) (2020-11-11T12:16:23Z) - Mitigating Dataset Imbalance via Joint Generation and Classification [17.57577266707809]
教師付きディープラーニング手法は、コンピュータビジョンの多くの実践的応用において大きな成功を収めている。
バイアスや不均衡データに対する顕著な性能劣化は、これらの手法の信頼性に疑問を投げかける。
ニューラルネットワーク分類器とGAN(Generative Adversarial Networks)を組み合わせた共同データセット修復戦略を提案する。
重度のクラス不均衡に対する分類器とGANの堅牢性向上に寄与することを示す。
論文 参考訳(メタデータ) (2020-08-12T18:40:38Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。