論文の概要: Unbiased Decisions Reduce Regret: Adversarial Domain Adaptation for the
Bank Loan Problem
- arxiv url: http://arxiv.org/abs/2308.08051v1
- Date: Tue, 15 Aug 2023 21:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 15:21:21.334691
- Title: Unbiased Decisions Reduce Regret: Adversarial Domain Adaptation for the
Bank Loan Problem
- Title(参考訳): 非バイアス決定は後悔を減らす:銀行ローン問題に対する敵対的ドメイン適応
- Authors: Elena Gal, Shaun Singh, Aldo Pacchiano, Ben Walker, Terry Lyons, Jakob
Foerster
- Abstract要約: データポイントがプリンシパルによって正のラベルを割り当てられた場合にのみ、真のラベルが観察される。
本稿では、対向ドメイン適応を用いたトレーニングセットのバイアスに直接対処するために、対向最適化(AdOpt)を導入する。
- 参考スコア(独自算出の注目度): 21.43618923706602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many real world settings binary classification decisions are made based on
limited data in near real-time, e.g. when assessing a loan application. We
focus on a class of these problems that share a common feature: the true label
is only observed when a data point is assigned a positive label by the
principal, e.g. we only find out whether an applicant defaults if we accepted
their loan application. As a consequence, the false rejections become
self-reinforcing and cause the labelled training set, that is being
continuously updated by the model decisions, to accumulate bias. Prior work
mitigates this effect by injecting optimism into the model, however this comes
at the cost of increased false acceptance rate. We introduce adversarial
optimism (AdOpt) to directly address bias in the training set using adversarial
domain adaptation. The goal of AdOpt is to learn an unbiased but informative
representation of past data, by reducing the distributional shift between the
set of accepted data points and all data points seen thus far. AdOpt
significantly exceeds state-of-the-art performance on a set of challenging
benchmark problems. Our experiments also provide initial evidence that the
introduction of adversarial domain adaptation improves fairness in this
setting.
- Abstract(参考訳): 多くの実世界では、バイナリ分類の決定は、例えばローンアプリケーションを評価する際に、ほぼリアルタイムで限られたデータに基づいて行われる。
真のラベルは、データポイントがプリンシパルによってポジティブなラベルに割り当てられたときにのみ観察されます。例えば、申請者がローンの申請を受け入れた場合にデフォルトかどうかを判断するだけです。
その結果、偽の拒絶は自己申告となり、モデル決定によって継続的に更新されるラベル付きトレーニングセットがバイアスを蓄積させる。
先行作業は、モデルに楽観主義を注入することでこの効果を緩和するが、これは偽の受け入れ率の増加のコストによって生じる。
アドバサリアン・オプティミズム(adversarial optimism,adopt)を導入し,アドバサリアン・ドメイン適応を用いたトレーニングセットのバイアスに直接対処する。
AdOptの目標は、受け入れられたデータポイントの集合とこれまで見てきたすべてのデータポイントの間の分散シフトを減らすことで、過去のデータのバイアスのない、情報のない表現を学ぶことである。
AdOptは、一連の挑戦的なベンチマーク問題において最先端のパフォーマンスを大幅に上回る。
また,本実験では,敵領域適応の導入により,公平性が向上することを示す。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景および前景バイアスプロトコル上で評価し,新しい最先端技術を設定し,HMDB51上で12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fighting Sampling Bias: A Framework for Training and Evaluating Credit Scoring Models [2.918530881730374]
本稿では,サンプリングバイアスがモデルトレーニングおよび評価に与える影響について考察する。
スコアカード評価のためのバイアス認識型自己学習と拒絶推論フレームワークを提案する。
その結果,ベイズ評価を用いて受入率を決定する場合,利益率が約8%向上することが示唆された。
論文 参考訳(メタデータ) (2024-07-17T20:59:54Z) - Inclusive FinTech Lending via Contrastive Learning and Domain Adaptation [9.75150920742607]
フィンテックの貸与は、財政的包摂の促進に重要な役割を果たしてきた。
ローン審査中にアルゴリズムによる意思決定にバイアスがかかる可能性があるという懸念がある。
自己教師付きコントラスト学習とドメイン適応を用いたトランスフォーマーに基づくシーケンシャルローンスクリーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-05-10T01:11:35Z) - RAGUEL: Recourse-Aware Group Unfairness Elimination [2.720659230102122]
「algorithmic recourse」は、望ましくない結果を変えるための実行可能な回復行動を提供する。
ランク付けされたグループレベルのリコースフェアネスの概念を導入する。
我々は、ランク付けされたrecourse Fairness制約を満たす'recourse-aware ranking'ソリューションを開発する。
論文 参考訳(メタデータ) (2022-08-30T11:53:38Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making [14.905698014932488]
そこで本研究では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習する。
提案手法は,低分散の基底構造に従って最適(フェア)ポリシーに収束する。
論文 参考訳(メタデータ) (2022-05-10T10:33:11Z) - Generalizable Person Re-Identification via Self-Supervised Batch Norm
Test-Time Adaption [63.7424680360004]
Batch Norm Test-time Adaption (BNTA)は、BNパラメータを適応的に更新するための自己教師型戦略を適用する、新しいre-idフレームワークである。
BNTAは、推論前にラベル付けされていないターゲットデータ内のドメイン認識情報を探索し、BNによって正規化された特徴分布を変調してターゲットドメインに適応させる。
論文 参考訳(メタデータ) (2022-03-01T18:46:32Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。