論文の概要: Certifying Robustness to Programmable Data Bias in Decision Trees
- arxiv url: http://arxiv.org/abs/2110.04363v1
- Date: Fri, 8 Oct 2021 20:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 09:00:46.087245
- Title: Certifying Robustness to Programmable Data Bias in Decision Trees
- Title(参考訳): 決定木におけるプログラム可能なデータバイアスに対するロバスト性認定
- Authors: Anna P. Meyer and Aws Albarghouthi and Loris D'Antoni
- Abstract要約: 学習者が生成したモデルは、潜在的なデータセットバイアスに対してポイントワイズで損なわれていることを証明します。
このアプローチでは,さまざまな次元にまたがるバイアスモデルを指定することが可能です。
フェアネス文献でよく用いられるデータセットに対する我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 12.060443368097102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Datasets can be biased due to societal inequities, human biases,
under-representation of minorities, etc. Our goal is to certify that models
produced by a learning algorithm are pointwise-robust to potential dataset
biases. This is a challenging problem: it entails learning models for a large,
or even infinite, number of datasets, ensuring that they all produce the same
prediction. We focus on decision-tree learning due to the interpretable nature
of the models. Our approach allows programmatically specifying bias models
across a variety of dimensions (e.g., missing data for minorities), composing
types of bias, and targeting bias towards a specific group. To certify
robustness, we use a novel symbolic technique to evaluate a decision-tree
learner on a large, or infinite, number of datasets, certifying that each and
every dataset produces the same prediction for a specific test point. We
evaluate our approach on datasets that are commonly used in the fairness
literature, and demonstrate our approach's viability on a range of bias models.
- Abstract(参考訳): データセットは、社会的不平等、人間の偏見、マイノリティの過小評価などによってバイアスを受けることができる。
私たちの目標は、学習アルゴリズムが生成するモデルが潜在的なデータセットバイアスに対してポイントワイズロバストであることを確認することです。
これは難しい問題であり、大きな、あるいは無限のデータセットの学習モデルが必要であり、それらがすべて同じ予測を生成することを保証する。
モデルの性質の解釈により,決定木学習に焦点をあてる。
このアプローチでは、さまざまな次元(マイノリティの欠落データなど)にわたるバイアスモデルをプログラム的に特定し、バイアスのタイプを作成し、特定のグループに対するバイアスを目標にすることができる。
頑健性を証明するために、我々は新しい象徴的手法を用いて、大きな、あるいは無限のデータセット上で決定木学習者を評価し、各データセットが特定のテストポイントに対して同じ予測を生成することを証明した。
我々は,公平性文献で一般的に使用されるデータセットに対するアプローチを評価し,バイアスモデル上でのアプローチの有効性を実証する。
関連論文リスト
- Challenges learning from imbalanced data using tree-based models: Prevalence estimates systematically depend on hyperparameters and can be upwardly biased [0.0]
不均衡二項分類問題は、多くの研究分野において発生する。
モデルのトレーニングのための(より)バランスのとれたデータセットを作成するために、多数派のクラスをサブサンプルするのが一般的です。
これは、モデルが新しいデータと同じデータ生成プロセスに従わないデータセットから学習するため、モデルの予測をバイアスする。
論文 参考訳(メタデータ) (2024-12-17T19:38:29Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - NBIAS: A Natural Language Processing Framework for Bias Identification
in Text [9.486702261615166]
テキストデータのバイアスは、データが使用されると歪んだ解釈や結果につながる可能性がある。
偏りのあるデータに基づいて訓練されたアルゴリズムは、あるグループに不公平に影響を及ぼす決定を下すかもしれない。
我々は,データ,コーパス構築,モデル開発,評価レイヤの4つの主要レイヤからなる包括的フレームワーク NBIAS を開発した。
論文 参考訳(メタデータ) (2023-08-03T10:48:30Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Certifying Data-Bias Robustness in Linear Regression [12.00314910031517]
本稿では, 線形回帰モデルが学習データセットのラベルバイアスに対して, ポイントワイズで損なわれているかどうかを検証する手法を提案する。
この問題を個々のテストポイントに対して正確に解く方法を示し、近似的だがよりスケーラブルな方法を提供する。
また、いくつかのデータセット上の特定のバイアス仮定に対して、高いレベルの非腐食性など、バイアス-腐食性のギャップを掘り下げる。
論文 参考訳(メタデータ) (2022-06-07T20:47:07Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias [10.639605996067534]
コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
論文 参考訳(メタデータ) (2021-10-20T06:00:03Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。