論文の概要: Explanatory Interactive Machine Learning for Bias Mitigation in Visual Gender Classification
- arxiv url: http://arxiv.org/abs/2602.13286v1
- Date: Sat, 07 Feb 2026 13:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.812578
- Title: Explanatory Interactive Machine Learning for Bias Mitigation in Visual Gender Classification
- Title(参考訳): 視覚的ジェンダー分類におけるバイアス軽減のための説明的対話型機械学習
- Authors: Nathanya Satriani, Djordje Slijepčević, Markus Schedl, Matthias Zeppelzauer,
- Abstract要約: 説明対話型学習(XIL)では、モデルの説明に対するフィードバックを提供することで、機械学習(ML)におけるモデルトレーニングをガイドすることができる。
我々は,CAIPIとRight for the Right Reasons(Bounded)の2つの最先端XIL戦略と,両戦略を組み合わせた新しいハイブリッドアプローチについて検討する。
実験により,これらの手法が,画像の特徴に着目したMLモデルの指導に有効であることを示す。
- 参考スコア(独自算出の注目度): 6.296044623811203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanatory interactive learning (XIL) enables users to guide model training in machine learning (ML) by providing feedback on the model's explanations, thereby helping it to focus on features that are relevant to the prediction from the user's perspective. In this study, we explore the capability of this learning paradigm to mitigate bias and spurious correlations in visual classifiers, specifically in scenarios prone to data bias, such as gender classification. We investigate two methodologically different state-of-the-art XIL strategies, i.e., CAIPI and Right for the Right Reasons (RRR), as well as a novel hybrid approach that combines both strategies. The results are evaluated quantitatively by comparing segmentation masks with explanations generated using Gradient-weighted Class Activation Mapping (GradCAM) and Bounded Logit Attention (BLA). Experimental results demonstrate the effectiveness of these methods in (i) guiding ML models to focus on relevant image features, particularly when CAIPI is used, and (ii) reducing model bias (i.e., balancing the misclassification rates between male and female predictions). Our analysis further supports the potential of XIL methods to improve fairness in gender classifiers. Overall, the increased transparency and fairness obtained by XIL leads to slight performance decreases with an exception being CAIPI, which shows potential to even improve classification accuracy.
- Abstract(参考訳): 説明対話型学習(Explanatory Interactive Learning, XIL)は、モデルの説明に対するフィードバックを提供することで、機械学習(ML)におけるモデルトレーニングのガイドを可能にする。
本研究では,この学習パラダイムが視覚的分類器におけるバイアスや刺激的な相関を緩和する能力について考察する。
本稿では,CAIPIとRight for the Right Reasons(RRR)の2つの方法論的異なるXIL戦略と,両戦略を組み合わせた新しいハイブリッドアプローチについて検討する。
その結果,GradCAM(Gradient-weighted Class Activation Mapping)とBLA(Bounded Logit Attention)を用いて,セグメンテーションマスクと説明文を比較して定量的に評価した。
実験結果から, これらの手法の有効性が示された。
(i)MLモデルを、特にCAIPIを使用する場合の関連画像特徴に焦点を合わせること
(2)モデルバイアスの低減(すなわち、男女の予測の誤分類率のバランス)。
我々の分析は、性別分類器の公平性を向上するXIL法の可能性をさらに支援している。
全体として、XILによる透明性と公平性の向上は、CAIPIを例外としてわずかに性能を低下させ、分類精度を向上する可能性を示している。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Addressing Class Imbalance with Probabilistic Graphical Models and Variational Inference [10.457756074328664]
本研究では,深い確率的グラフィカルモデル(DPGM)に基づく不均衡データ分類手法を提案する。
本稿では,少数クラスの表現能力を適応的に調整できる変分推論最適化確率モデルを提案する。
逆学習機構を組み合わさって、潜在空間におけるマイノリティクラスサンプルを生成し、モデルがカテゴリ境界をより正確に特徴づけられるようにします。
論文 参考訳(メタデータ) (2025-04-08T07:38:30Z) - Gradient Extrapolation for Debiased Representation Learning [7.183424522250937]
GERNE(Gradient Extrapolation for Debiased Representation Learning)は、未知の属性トレーニングケースと未知の属性トレーニングケースの両方において、バイアス付き表現を学習するように設計されている。
解析の結果,外挿した勾配がバッチ勾配に向けられた場合,緩やかな相関が小さくなると,脱バイアスモデルを学ぶためのトレーニングを効果的に導くことが示唆された。
論文 参考訳(メタデータ) (2025-03-17T14:48:57Z) - Detecting and Mitigating Algorithmic Bias in Binary Classification using
Causal Modeling [0.0]
予測モデルの性別バイアスは0.05レベルで統計的に有意であることを示す。
本研究は,性別バイアス軽減のための因果モデルの有効性を示す。
我々の新しいアプローチは直感的で使いやすく、R の "lavaan" のような既存の統計ソフトウェアツールを使って実装することができる。
論文 参考訳(メタデータ) (2023-10-19T02:21:04Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - D-CALM: A Dynamic Clustering-based Active Learning Approach for
Mitigating Bias [13.008323851750442]
本稿では,クラスタリングとアノテーションを動的に調整する適応型クラスタリングに基づく能動的学習アルゴリズムD-CALMを提案する。
感情,ヘイトスピーチ,ダイアログ行為,書籍型検出など,多種多様なテキスト分類タスクのための8つのデータセットの実験により,提案アルゴリズムがベースラインALアプローチを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-05-26T15:17:43Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。