論文の概要: Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization
- arxiv url: http://arxiv.org/abs/2108.05449v2
- Date: Fri, 13 Aug 2021 01:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 11:28:57.145282
- Title: Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization
- Title(参考訳): クロスサンプル相互情報最小化によるバイアス不変表現の学習
- Authors: Wei Zhu, Haitian Zheng, Haofu Liao, Weijian Li, Jiebo Luo
- Abstract要約: 対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
- 参考スコア(独自算出の注目度): 77.8735802150511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning algorithms mine knowledge from the training data and thus would
likely inherit the dataset's bias information. As a result, the obtained model
would generalize poorly and even mislead the decision process in real-life
applications. We propose to remove the bias information misused by the target
task with a cross-sample adversarial debiasing (CSAD) method. CSAD explicitly
extracts target and bias features disentangled from the latent representation
generated by a feature extractor and then learns to discover and remove the
correlation between the target and bias features. The correlation measurement
plays a critical role in adversarial debiasing and is conducted by a
cross-sample neural mutual information estimator. Moreover, we propose joint
content and local structural representation learning to boost mutual
information estimation for better performance. We conduct thorough experiments
on publicly available datasets to validate the advantages of the proposed
method over state-of-the-art approaches.
- Abstract(参考訳): ディープラーニングアルゴリズムはトレーニングデータから知識を抽出するので、データセットのバイアス情報を継承する可能性が高い。
結果として、得られたモデルは一般化が悪く、現実の応用において決定過程を誤解させる結果となった。
本稿では,対象タスクが誤用するバイアス情報を,CSAD法を用いて除去することを提案する。
CSADは、特徴抽出器が生み出す潜在表現から切り離されたターゲット特徴とバイアス特徴を明示的に抽出し、ターゲット特徴とバイアス特徴の相関関係を発見して除去する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
さらに,協調コンテンツと局所構造表現学習を提案し,相互情報量の推定と性能向上を図る。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
関連論文リスト
- Bias in Evaluation Processes: An Optimization-Based Model [31.790546767744917]
本研究では,タスクに対する個人の実効性分布から観察された分布への変換として評価過程をモデル化する。
本研究では,本モデルから生じる分布を特徴付けるとともに,観測された分布に対するパラメータの影響について検討する。
実世界のデータセットを組み込むことで、我々のモデルを実証的に検証し、下流選択タスクにおける介入の効果を研究する。
論文 参考訳(メタデータ) (2023-10-26T15:45:01Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Mitigating sampling bias in risk-based active learning via an EM
algorithm [0.0]
リスクベースのアクティブラーニングは、オンライン意思決定支援のための統計分類器を開発するためのアプローチである。
データラベルクエリは、初期データポイントに対する完全情報の期待値に応じてガイドされる。
半教師付きアプローチは、EMアルゴリズムを介して未ラベルデータの擬似ラベルを組み込むことでサンプリングバイアスに対処する。
論文 参考訳(メタデータ) (2022-06-25T08:48:25Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Learning Unbiased Representations via Mutual Information Backpropagation [36.383338079229695]
特に、モデルによって学習された場合、データのいくつかの属性(バイアス)が一般化特性を著しく損なう可能性がある場合に直面します。
本稿では,学習した表現とデータ属性の相互情報を同時に推定し,最小化する,新しいエンドツーエンド最適化手法を提案する。
論文 参考訳(メタデータ) (2020-03-13T18:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。