論文の概要: Explanatory Debiasing: Involving Domain Experts in the Data Generation Process to Mitigate Representation Bias in AI Systems
- arxiv url: http://arxiv.org/abs/2501.01441v1
- Date: Thu, 26 Dec 2024 14:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-12 03:17:02.331186
- Title: Explanatory Debiasing: Involving Domain Experts in the Data Generation Process to Mitigate Representation Bias in AI Systems
- Title(参考訳): 説明的偏見:AIシステムにおける表現バイアスを軽減するために、データ生成プロセスにドメインエキスパートを巻き込む
- Authors: Aditya Bhattacharya, Simone Stumpf, Robin De Croon, Katrien Verbert,
- Abstract要約: 表現バイアス(Representation bias)は、人工知能(AI)システムにおける最も一般的なバイアスの1つである。
本稿では,表現障害にドメインエキスパートを効果的に巻き込むための汎用設計ガイドラインを紹介する。
この結果から,モデル精度を損なうことなく,ドメインエキスパートの関与による表現バイアスの低減が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 4.026808162893866
- License:
- Abstract: Representation bias is one of the most common types of biases in artificial intelligence (AI) systems, causing AI models to perform poorly on underrepresented data segments. Although AI practitioners use various methods to reduce representation bias, their effectiveness is often constrained by insufficient domain knowledge in the debiasing process. To address this gap, this paper introduces a set of generic design guidelines for effectively involving domain experts in representation debiasing. We instantiated our proposed guidelines in a healthcare-focused application and evaluated them through a comprehensive mixed-methods user study with 35 healthcare experts. Our findings show that involving domain experts can reduce representation bias without compromising model accuracy. Based on our findings, we also offer recommendations for developers to build robust debiasing systems guided by our generic design guidelines, ensuring more effective inclusion of domain experts in the debiasing process.
- Abstract(参考訳): 表現バイアスは、人工知能(AI)システムにおいて最も一般的なタイプのバイアスの1つである。
AI実践者は、表現バイアスを減らすために様々な方法を使用しているが、その効果は、デバイアス処理におけるドメイン知識の不足によって制約されることが多い。
このギャップに対処するため,本論文では,表現嫌悪にドメインエキスパートを効果的に巻き込むための設計ガイドラインについて紹介する。
提案ガイドラインを医療中心のアプリケーションにインスタンス化し,35名の医療専門家による総合的な混合手法のユーザスタディを通じて評価した。
この結果から,モデル精度を損なうことなく,ドメインエキスパートの関与による表現バイアスの低減が可能であることが示唆された。
私たちの発見に基づいて、当社のジェネリックデザインガイドラインによってガイドされた堅牢なデバイアスシステムを構築するための推奨事項も提供し、デバイアスプロセスにドメインエキスパートをより効果的に組み込むことを保証します。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Debiased Recommendation with Noisy Feedback [41.38490962524047]
収集データ中のMNARとOMEから予測モデルの非バイアス学習に対する交差点脅威について検討する。
まず, OME-EIB, OME-IPS, OME-DR推定器を設計する。
論文 参考訳(メタデータ) (2024-06-24T23:42:18Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Unsupervised Learning of Unbiased Visual Representations [12.690228982893]
ディープニューラルネットワークは、データセットバイアスの存在下で堅牢な表現を学ぶのに苦労することが多い。
この問題に対処するための既存のアプローチは、一般的にバイアス属性の明示的な監督、あるいはバイアスに関する事前の知識への依存を含む。
我々は3つの重要なステップを持つ完全に教師なしのデバイアス・フレームワークを提示する。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Towards Debiasing NLU Models from Unknown Biases [70.31427277842239]
NLUモデルは、しばしばバイアスを利用して、意図したタスクを適切に学習することなく、データセット固有の高いパフォーマンスを達成する。
本稿では、モデルがバイアスを事前に知ることなく、主にバイアスを利用するのを防ぐ自己バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-25T15:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。