論文の概要: Estimating and Improving Fairness with Adversarial Learning
- arxiv url: http://arxiv.org/abs/2103.04243v1
- Date: Sun, 7 Mar 2021 03:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 08:05:07.452362
- Title: Estimating and Improving Fairness with Adversarial Learning
- Title(参考訳): 対人学習による公正度の推定と改善
- Authors: Xiaoxiao Li, Ziteng Cui, Yifan Wu, Li Gu, Tatsuya Harada
- Abstract要約: 本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
- 参考スコア(独自算出の注目度): 65.99330614802388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness and accountability are two essential pillars for trustworthy
Artificial Intelligence (AI) in healthcare. However, the existing AI model may
be biased in its decision marking. To tackle this issue, we propose an
adversarial multi-task training strategy to simultaneously mitigate and detect
bias in the deep learning-based medical image analysis system. Specifically, we
propose to add a discrimination module against bias and a critical module that
predicts unfairness within the base classification model. We further impose an
orthogonality regularization to force the two modules to be independent during
training. Hence, we can keep these deep learning tasks distinct from one
another, and avoid collapsing them into a singular point on the manifold.
Through this adversarial training method, the data from the underprivileged
group, which is vulnerable to bias because of attributes such as sex and skin
tone, are transferred into a domain that is neutral relative to these
attributes. Furthermore, the critical module can predict fairness scores for
the data with unknown sensitive attributes. We evaluate our framework on a
large-scale public-available skin lesion dataset under various fairness
evaluation metrics. The experiments demonstrate the effectiveness of our
proposed method for estimating and improving fairness in the deep
learning-based medical image analysis system.
- Abstract(参考訳): 医療における信頼される人工知能(AI)には、公平性と説明責任が不可欠です。
しかし、既存のAIモデルは決定マーキングに偏る可能性があります。
そこで本研究では,深層学習に基づく医用画像解析システムにおいて,バイアスの軽減と検出を同時に行うマルチタスク学習戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
さらに、トレーニング中に2つのモジュールが独立するように直交正規化を強制します。
したがって、これらの深層学習タスクを互いに区別し、多様体上の特異点に分解することを避けることができる。
この敵対的なトレーニング方法を通じて、性別や肌のトーンなどの属性のためにバイアスに対して脆弱である恵まれないグループからのデータは、これらの属性に対して中立なドメインに転送されます。
さらに、クリティカルモジュールは、未知の敏感な属性を持つデータの公平度スコアを予測できます。
各種フェアネス評価指標に基づいて, 大規模皮膚病変データセット上での枠組みの評価を行った。
本実験は,深層学習に基づく医用画像解析システムにおいて,フェアネスを推定・改善するための提案手法の有効性を示すものである。
関連論文リスト
- DCAST: Diverse Class-Aware Self-Training Mitigates Selection Bias for Fairer Learning [0.0]
敏感な特徴に代表されないバイアスは 識別が困難で 診断されないのが普通です
未確認バイアスを緩和し、緩和方法を評価するための戦略は不可欠であるが、未調査のままである。
本稿では,クラス固有の偏見を意識したモデル非依存的緩和手法であるDiverse Class-Aware Self-Training (DCAST)を紹介した。
論文 参考訳(メタデータ) (2024-09-30T09:26:19Z) - Refining Tuberculosis Detection in CXR Imaging: Addressing Bias in Deep Neural Networks via Interpretability [1.9936075659851882]
実験データから完全な分類精度を得ることができたとしても,深層学習モデルの信頼性は限られていると論じる。
大規模プロキシタスクでディープニューラルネットワークを事前トレーニングし、MOON(Mixed objective Optimization Network)を使用することで、モデルとエキスパート間の決定基盤の整合性を改善することができることを示す。
論文 参考訳(メタデータ) (2024-07-19T06:41:31Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。