論文の概要: Counterfactual Augmentation for Multimodal Learning Under Presentation
Bias
- arxiv url: http://arxiv.org/abs/2305.14083v1
- Date: Tue, 23 May 2023 14:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:50:22.501010
- Title: Counterfactual Augmentation for Multimodal Learning Under Presentation
Bias
- Title(参考訳): プレゼンテーションバイアス下におけるマルチモーダル学習の反事実強化
- Authors: Victoria Lin, Louis-Philippe Morency, Dimitrios Dimitriadis, Srinagesh
Sharma
- Abstract要約: 機械学習システムでは、ユーザとモデル間のフィードバックループが将来のユーザの振る舞いをバイアスし、ラベルのプレゼンテーションバイアスを引き起こす。
生成した反事実ラベルを用いてプレゼンテーションバイアスを補正する新しい因果的手法である反事実拡張を提案する。
- 参考スコア(独自算出の注目度): 47.25776392020066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world machine learning systems, labels are often derived from user
behaviors that the system wishes to encourage. Over time, new models must be
trained as new training examples and features become available. However,
feedback loops between users and models can bias future user behavior, inducing
a presentation bias in the labels that compromises the ability to train new
models. In this paper, we propose counterfactual augmentation, a novel causal
method for correcting presentation bias using generated counterfactual labels.
Our empirical evaluations demonstrate that counterfactual augmentation yields
better downstream performance compared to both uncorrected models and existing
bias-correction methods. Model analyses further indicate that the generated
counterfactuals align closely with true counterfactuals in an oracle setting.
- Abstract(参考訳): 現実世界の機械学習システムでは、ラベルはシステムが奨励したいユーザー行動に由来することが多い。
時間とともに、新しいモデルは新しいトレーニング例と機能が利用可能になるようにトレーニングされなければなりません。
しかし、ユーザーとモデルの間のフィードバックループは将来のユーザの振る舞いをバイアスし、新しいモデルをトレーニングする能力を損なうラベルにプレゼンテーションバイアスを引き起こす。
本稿では,生成したデファクトラベルを用いて提示バイアスを補正する新しい因果的手法である,デファクト拡張を提案する。
実証実験により,非補正モデルと既存バイアス補正手法の双方と比較して,デファクト改善により下流性能が向上することが示された。
モデル分析はさらに、生成された偽物はオラクルの設定において真の偽物と密接に一致していることを示している。
関連論文リスト
- An Attention-based Framework for Fair Contrastive Learning [2.1605931466490795]
そこで本稿では,バイアスを考慮したインタラクションをモデル化するための注意機構を用いた,公正なコントラスト学習のための新しい手法を提案する。
我々の注意機構は、モデルに相反するバイアスを発生させるサンプルを避け、意味論的に意味のある表現を学習するのに役立つバイアスを誘発するサンプルに焦点をあてる。
論文 参考訳(メタデータ) (2024-11-22T07:11:35Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Improved Bayes Risk Can Yield Reduced Social Welfare Under Competition [99.7047087527422]
本研究は,機械学習のスケーリングトレンドの振る舞いを根本的に変化させることを実証する。
データ表現品質の改善により、ユーザ間での全体的な予測精度が低下する、多くの設定が見つかる。
概念レベルでは,各モデルプロジェクタのスケーリング傾向が,社会福祉の下流改善に寄与する必要はないことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T13:06:34Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。