論文の概要: Data augmentation and explainability for bias discovery and mitigation
in deep learning
- arxiv url: http://arxiv.org/abs/2308.09464v1
- Date: Fri, 18 Aug 2023 11:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:27:36.646077
- Title: Data augmentation and explainability for bias discovery and mitigation
in deep learning
- Title(参考訳): 深層学習におけるバイアス発見と緩和のためのデータ拡張と説明可能性
- Authors: Agnieszka Miko{\l}ajczyk-Bare{\l}a
- Abstract要約: この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This dissertation explores the impact of bias in deep neural networks and
presents methods for reducing its influence on model performance. The first
part begins by categorizing and describing potential sources of bias and errors
in data and models, with a particular focus on bias in machine learning
pipelines. The next chapter outlines a taxonomy and methods of Explainable AI
as a way to justify predictions and control and improve the model. Then, as an
example of a laborious manual data inspection and bias discovery process, a
skin lesion dataset is manually examined. A Global Explanation for the Bias
Identification method is proposed as an alternative semi-automatic approach to
manual data exploration for discovering potential biases in data. Relevant
numerical methods and metrics are discussed for assessing the effects of the
identified biases on the model. Whereas identifying errors and bias is
critical, improving the model and reducing the number of flaws in the future is
an absolute priority. Hence, the second part of the thesis focuses on
mitigating the influence of bias on ML models. Three approaches are proposed
and discussed: Style Transfer Data Augmentation, Targeted Data Augmentations,
and Attribution Feedback. Style Transfer Data Augmentation aims to address
shape and texture bias by merging a style of a malignant lesion with a
conflicting shape of a benign one. Targeted Data Augmentations randomly insert
possible biases into all images in the dataset during the training, as a way to
make the process random and, thus, destroy spurious correlations. Lastly,
Attribution Feedback is used to fine-tune the model to improve its accuracy by
eliminating obvious mistakes and teaching it to ignore insignificant input
parts via an attribution loss. The goal of these approaches is to reduce the
influence of bias on machine learning models, rather than eliminate it
entirely.
- Abstract(参考訳): この論文はディープニューラルネットワークにおけるバイアスの影響を探求し、モデル性能への影響を減らす方法を提案する。
最初の部分は、データとモデルのバイアスとエラーの潜在的なソースを分類し、記述することから始まり、特に機械学習パイプラインのバイアスにフォーカスします。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
次に、面倒な手動データ検査とバイアス発見の例として、皮膚病変データセットを手動で検査する。
データの潜在的なバイアスを発見するための手動データ探索のための半自動手法として, バイアス同定のためのグローバル説明法を提案する。
モデルに対する同定されたバイアスの影響を評価するために、関連する数値的手法とメトリクスについて論じる。
エラーとバイアスの識別は重要だが、モデルを改善し、将来欠陥の数を減らすことは絶対的な優先事項である。
したがって、論文の第2部は、mlモデルに対するバイアスの影響の緩和に焦点を当てている。
Style Transfer Data Augmentation、Targeted Data Augmentation、Attribution Feedbackの3つのアプローチが提案され議論されている。
Style Transfer Data Augmentationは、悪性病変のスタイルと良性病変の相反する形状を融合することにより、形状とテクスチャバイアスに対処することを目的としている。
ターゲットデータ拡張(Targeted Data Augmentations)は、トレーニング中にデータセット内のすべてのイメージにランダムにバイアスを挿入することで、プロセスをランダムにすることで、急激な相関を破棄する。
最後に、属性フィードバックは、明らかな誤りを排除し、属性損失を通じて重要でない入力部品を無視するように教えることで、モデルを微調整して精度を向上させるために使用される。
これらのアプローチの目標は、完全に排除するのではなく、機械学習モデルに対するバイアスの影響を減らすことだ。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - DiffInject: Revisiting Debias via Synthetic Data Generation using Diffusion-based Style Injection [9.801159950963306]
DiffInject(ディフインジェクション)は,事前学習した拡散モデルを用いて,合成バイアス競合サンプルを増強する強力な手法である。
私たちのフレームワークでは、バイアスタイプやラベル付けに関する明確な知識は必要ありません。
論文 参考訳(メタデータ) (2024-06-10T09:45:38Z) - Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。