論文の概要: On the Fairness of Swarm Learning in Skin Lesion Classification
- arxiv url: http://arxiv.org/abs/2109.12176v1
- Date: Fri, 24 Sep 2021 20:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 09:27:01.419067
- Title: On the Fairness of Swarm Learning in Skin Lesion Classification
- Title(参考訳): 皮膚病変分類における群学習の公正性について
- Authors: Di Fan, Yifan Wu, Xiaoxiao Li
- Abstract要約: 分散および協調学習は、大規模な、異種、分散データソースでのトレーニングモデルを巻き込むアプローチである。
単一 (ノード) トレーニング, SL, 集中訓練の公平性を比較検討し, 実験的検討を行った。
実験により、SLは集中トレーニングに比べて公平性問題を悪化させることはないことが示された。
- 参考スコア(独自算出の注目度): 22.896631007125244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: in healthcare. However, the existing AI model may be biased in its decision
marking. The bias induced by data itself, such as collecting data in subgroups
only, can be mitigated by including more diversified data. Distributed and
collaborative learning is an approach to involve training models in massive,
heterogeneous, and distributed data sources, also known as nodes. In this work,
we target on examining the fairness issue in Swarm Learning (SL), a recent
edge-computing based decentralized machine learning approach, which is designed
for heterogeneous illnesses detection in precision medicine. SL has achieved
high performance in clinical applications, but no attempt has been made to
evaluate if SL can improve fairness. To address the problem, we present an
empirical study by comparing the fairness among single (node) training, SL,
centralized training. Specifically, we evaluate on large public available skin
lesion dataset, which contains samples from various subgroups. The experiments
demonstrate that SL does not exacerbate the fairness problem compared to
centralized training and improves both performance and fairness compared to
single training. However, there still exists biases in SL model and the
implementation of SL is more complex than the alternative two strategies.
- Abstract(参考訳): 医療の分野で
しかし、既存のAIモデルは決定マークに偏っている可能性がある。
サブグループのみのデータ収集など、データ自身によって引き起こされるバイアスは、より多様化したデータを含むことで軽減できる。
分散および協調学習は、大規模な、異種、分散データソース(ノードとしても知られる)でのトレーニングモデルを巻き込むアプローチである。
本研究では,近年のエッジコンピューティングに基づく分散機械学習手法であるswarm learning (sl) における公平性の問題を検討することを目的とした。
SLは臨床応用において高い性能を示したが、SLが公平性を向上させるかどうかを評価する試みは行われていない。
そこで本研究では,単一(ノード)トレーニング,sl,集中型トレーニングの公平性を比較し,実証実験を行った。
具体的には,様々なサブグループのサンプルを含む,広く公開されている皮膚病変データセットについて検討した。
実験により, SLは集中訓練と比較して公平性問題を悪化させず, 単調訓練に比べ, 性能と公平性の両方を改善していることがわかった。
しかし、SLモデルにはまだバイアスがあり、SLの実装は代替の2つの戦略よりも複雑である。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - SPLAL: Similarity-based pseudo-labeling with alignment loss for
semi-supervised medical image classification [11.435826510575879]
半教師付き学習(SSL)メソッドはラベル付きデータとラベルなしデータの両方を活用することで課題を軽減することができる。
医用画像分類のためのSSL法では,(1)ラベルなしデータセットの画像に対する信頼性の高い擬似ラベルの推定,(2)クラス不均衡によるバイアスの低減という2つの課題に対処する必要がある。
本稿では,これらの課題を効果的に解決する新しいSSLアプローチであるSPLALを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:53:24Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Adaptive Personlization in Federated Learning for Highly Non-i.i.d. Data [37.667379000751325]
フェデレートラーニング(Federated Learning, FL)は、医療機関にグローバルモデルにおけるコラボレーションの見通しを提供する分散ラーニング手法である。
本研究では,FLの中間的半言語モデルを生成する適応階層クラスタリング手法について検討する。
本実験は, 分類精度の標準的なFL法と比較して, 不均質分布において有意な性能向上を示した。
論文 参考訳(メタデータ) (2022-07-07T17:25:04Z) - A study on the distribution of social biases in self-supervised learning
visual models [1.8692254863855964]
ラベル付きデータを必要としないので、自己監視学習(SSL)は効率的でバイアスのないソリューションとして誤って現れます。
SSLモデルの種類と、それが組み込むバイアスの数との間には相関関係があることが示される。
我々は、SSLモデル選択プロセスが、デプロイされたモデルにおける社会的バイアスの数を減らすことができると結論付けている。
論文 参考訳(メタデータ) (2022-03-03T17:03:21Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Semi-supervised Medical Image Classification with Global Latent Mixing [8.330337646455957]
ディープラーニングによるコンピュータ支援診断は、大規模な注釈付きデータセットに依存している。
半教師付き学習は、ラベルのないデータを活用することでこの課題を軽減する。
ラベル付きおよびラベルなしデータの線形混合に基づいてニューラルネットワークをトレーニングする新しいSSL手法を提案する。
論文 参考訳(メタデータ) (2020-05-22T14:49:13Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。