論文の概要: Mitigating Algorithmic Bias with Limited Annotations
- arxiv url: http://arxiv.org/abs/2207.10018v1
- Date: Wed, 20 Jul 2022 16:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:01:19.184139
- Title: Mitigating Algorithmic Bias with Limited Annotations
- Title(参考訳): 限定アノテーションによるアルゴリズムバイアスの緩和
- Authors: Guanchu Wang and Mengnan Du and Ninghao Liu and Na Zou and Xia Hu
- Abstract要約: 機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
- 参考スコア(独自算出の注目度): 65.060639928772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work on fairness modeling commonly assumes that sensitive attributes
for all instances are fully available, which may not be true in many real-world
applications due to the high cost of acquiring sensitive information. When
sensitive attributes are not disclosed or available, it is needed to manually
annotate a small part of the training data to mitigate bias. However, the
skewed distribution across different sensitive groups preserves the skewness of
the original dataset in the annotated subset, which leads to non-optimal bias
mitigation. To tackle this challenge, we propose Active Penalization Of
Discrimination (APOD), an interactive framework to guide the limited
annotations towards maximally eliminating the effect of algorithmic bias. The
proposed APOD integrates discrimination penalization with active instance
selection to efficiently utilize the limited annotation budget, and it is
theoretically proved to be capable of bounding the algorithmic bias. According
to the evaluation on five benchmark datasets, APOD outperforms the
state-of-the-arts baseline methods under the limited annotation budget, and
shows comparable performance to fully annotated bias mitigation, which
demonstrates that APOD could benefit real-world applications when sensitive
information is limited.
- Abstract(参考訳): フェアネスモデリングに関する既存の研究は、すべてのインスタンスに対するセンシティブな属性が完全に利用可能であり、センシティブな情報を取得するコストが高いため、多くの現実世界のアプリケーションでは当てはまらないと一般的に仮定している。
機密属性が公開または利用可能でない場合、バイアスを軽減するためにトレーニングデータのごく一部に手動で注釈を付ける必要がある。
しかし、異なる感度群間の歪分布は、注釈付き部分集合における元のデータセットの歪性を保持し、非最適バイアス緩和につながる。
そこで本研究では,アルゴリズムバイアスの影響を最大限に排除するために,限定的なアノテーションを導くための対話型フレームワークであるactive penalization of discrimination (apod)を提案する。
提案するapodは,限定的なアノテーション予算を効率的に活用するために,識別ペナリゼーションとアクティブインスタンス選択を統合し,アルゴリズムバイアスのバウンドが可能であることが理論的に証明されている。
5つのベンチマークデータセットの評価によると、APODは制限されたアノテーション予算の下で最先端のベースラインメソッドよりも優れており、完全に注釈付きバイアス軽減と同等のパフォーマンスを示している。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - D-CALM: A Dynamic Clustering-based Active Learning Approach for
Mitigating Bias [13.008323851750442]
本稿では,クラスタリングとアノテーションを動的に調整する適応型クラスタリングに基づく能動的学習アルゴリズムD-CALMを提案する。
感情,ヘイトスピーチ,ダイアログ行為,書籍型検出など,多種多様なテキスト分類タスクのための8つのデータセットの実験により,提案アルゴリズムがベースラインALアプローチを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-05-26T15:17:43Z) - Open World Classification with Adaptive Negative Samples [89.2422451410507]
オープンワールド分類は、自然言語処理における重要な実践的妥当性と影響を伴う課題である。
そこで本研究では, アンダーライン適応型アンダーラインアンプ (ANS) に基づいて, 学習段階における効果的な合成オープンカテゴリサンプルを生成する手法を提案する。
ANSは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-09T21:12:46Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。