論文の概要: Metric-DST: Mitigating Selection Bias Through Diversity-Guided Semi-Supervised Metric Learning
- arxiv url: http://arxiv.org/abs/2411.18442v2
- Date: Thu, 28 Nov 2024 08:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 11:38:23.010799
- Title: Metric-DST: Mitigating Selection Bias Through Diversity-Guided Semi-Supervised Metric Learning
- Title(参考訳): Metric-DST:多様性誘導半教師付きメトリックラーニングによる選択バイアスの緩和
- Authors: Yasin I. Tepeli, Mathijs de Wolf, Joana P. Gonçalves,
- Abstract要約: 自己学習のような半教師付き学習戦略は、ラベルなしデータをモデルトレーニングに組み込むことで選択バイアスを軽減することができる。
本稿では,距離学習とその暗黙の埋め込み空間を活用し,信頼度に基づくバイアスに対処する多様性誘導型自己学習戦略であるMetric-DSTを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Selection bias poses a critical challenge for fairness in machine learning, as models trained on data that is less representative of the population might exhibit undesirable behavior for underrepresented profiles. Semi-supervised learning strategies like self-training can mitigate selection bias by incorporating unlabeled data into model training to gain further insight into the distribution of the population. However, conventional self-training seeks to include high-confidence data samples, which may reinforce existing model bias and compromise effectiveness. We propose Metric-DST, a diversity-guided self-training strategy that leverages metric learning and its implicit embedding space to counter confidence-based bias through the inclusion of more diverse samples. Metric-DST learned more robust models in the presence of selection bias for generated and real-world datasets with induced bias, as well as a molecular biology prediction task with intrinsic bias. The Metric-DST learning strategy offers a flexible and widely applicable solution to mitigate selection bias and enhance fairness of machine learning models.
- Abstract(参考訳): 選択バイアスは、人口に代表されないデータに基づいて訓練されたモデルは、表現不足のプロファイルに対して望ましくない振る舞いを示す可能性があるため、機械学習における公平性にとって重要な課題となる。
自己学習のような半教師付き学習戦略は、ラベルのないデータをモデルトレーニングに組み込むことで選択バイアスを軽減することができ、人口分布に関するさらなる洞察を得ることができる。
しかし、従来の自己学習は、既存のモデルのバイアスを強化し、有効性を損なう可能性のある、高信頼のデータサンプルを含むことを目指している。
本稿では,メトリクス学習と暗黙の埋め込み空間を活用した多様性指導型自己学習戦略であるMetric-DSTを提案する。
Metric-DSTは、誘導バイアスを持つ生成された実世界のデータセットの選択バイアスの存在下で、より堅牢なモデルを学び、本質的なバイアスを持つ分子生物学予測タスクも学んだ。
Metric-DST学習戦略は、選択バイアスを緩和し、機械学習モデルの公正性を高めるために、柔軟で広く適用可能なソリューションを提供する。
関連論文リスト
- MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - DCAST: Diverse Class-Aware Self-Training Mitigates Selection Bias for Fairer Learning [0.0]
敏感な特徴に代表されないバイアスは 識別が困難で 診断されないのが普通です
未確認バイアスを緩和し、緩和方法を評価するための戦略は不可欠であるが、未調査のままである。
本稿では,クラス固有の偏見を意識したモデル非依存的緩和手法であるDiverse Class-Aware Self-Training (DCAST)を紹介した。
論文 参考訳(メタデータ) (2024-09-30T09:26:19Z) - Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。