論文の概要: Preserving Fairness in AI under Domain Shift
- arxiv url: http://arxiv.org/abs/2301.12369v1
- Date: Sun, 29 Jan 2023 06:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:23:49.362261
- Title: Preserving Fairness in AI under Domain Shift
- Title(参考訳): ドメインシフトによるAIの公正性の確保
- Authors: Serban Stan and Mohammad Rostami
- Abstract要約: AIの公正性を保証するための既存のアルゴリズムは、単発トレーニング戦略を使用している。
ドメインシフトの下で公正な状態を維持するために公正なモデルを適用するアルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 15.820660013260584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing algorithms for ensuring fairness in AI use a single-shot training
strategy, where an AI model is trained on an annotated training dataset with
sensitive attributes and then fielded for utilization. This training strategy
is effective in problems with stationary distributions, where both training and
testing data are drawn from the same distribution. However, it is vulnerable
with respect to distributional shifts in the input space that may occur after
the initial training phase. As a result, the time-dependent nature of data can
introduce biases into the model predictions. Model retraining from scratch
using a new annotated dataset is a naive solution that is expensive and
time-consuming. We develop an algorithm to adapt a fair model to remain fair
under domain shift using solely new unannotated data points. We recast this
learning setting as an unsupervised domain adaptation problem. Our algorithm is
based on updating the model such that the internal representation of data
remains unbiased despite distributional shifts in the input space. We provide
extensive empirical validation on three widely employed fairness datasets to
demonstrate the effectiveness of our algorithm.
- Abstract(参考訳): 既存のAIの公正性を保証するアルゴリズムでは、単一ショットのトレーニング戦略を使用して、AIモデルを注釈付きトレーニングデータセットにセンシティブな属性でトレーニングし、使用のためにフィールド化する。
このトレーニング戦略は、トレーニングデータとテストデータの両方が同一分布から引き出される定常分布の問題に有効である。
しかし、最初のトレーニングフェーズ後に発生する可能性のある入力空間の分布シフトに対して脆弱である。
結果として、データの時間依存の性質はモデル予測にバイアスをもたらす可能性がある。
新しいアノテートデータセットを使用したスクラッチからのモデル再トレーニングは、高価で時間を要する単純なソリューションである。
我々は、新しい注釈のないデータポイントのみを用いて、ドメインシフトの下で公平なモデルに適応するアルゴリズムを開発した。
我々はこの学習環境を教師なし領域適応問題として再考する。
本アルゴリズムは,入力空間の分散シフトにもかかわらず,データの内部表現が不偏であるようなモデルを更新することに基づいている。
提案アルゴリズムの有効性を実証するために,広く利用されている3つのフェアネスデータセットに対して広範な実証検証を行った。
関連論文リスト
- Continuous Unsupervised Domain Adaptation Using Stabilized
Representations and Experience Replay [23.871860648919593]
本稿では,教師なしドメイン適応(UDA)問題に継続学習(CL)シナリオで対処するアルゴリズムを提案する。
我々の解は、学習した内部分布を安定化し、新しい領域におけるモデル一般化を強化することに基づいている。
経験リプレイを活用して,新たなタスクを学習する際に獲得した知識をモデルが失う,破滅的な忘れ事の問題を克服する。
論文 参考訳(メタデータ) (2024-01-31T05:09:14Z) - Fairness and Accuracy under Domain Generalization [10.661409428935494]
機械学習アルゴリズムが特定の社会グループに偏っているのではないかという懸念が持ち上がっている。
MLモデルを公平にするための多くのアプローチが提案されているが、トレーニングとデプロイメントにおけるデータ分散が同一であるという仮定に依存しているのが一般的である。
本研究では,テスト時のデータのサンプル化が可能な領域一般化の下でのフェアネスと精度の両面について検討する。
論文 参考訳(メタデータ) (2023-01-30T23:10:17Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Understanding Self-Training for Gradual Domain Adaptation [107.37869221297687]
段階的なドメイン適応は、対象領域へ徐々にシフトするラベルのないデータのみを与えられたソースドメインで訓練された初期分類器を適応させることが目的である。
目標領域への直接適応が非有界誤差をもたらすような設定下において、段階的なシフトを伴う自己学習の誤差に対する最初の非無空上界を証明した。
この理論解析はアルゴリズムの洞察を導き、無限のデータを持つ場合でも正規化とラベルのシャープ化が不可欠であることを強調し、より小さなワッサーシュタイン無限距離のシフトに対して自己学習が特にうまく働くことを示唆している。
論文 参考訳(メタデータ) (2020-02-26T08:59:40Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。