論文の概要: Transparency Tools for Fairness in AI (Luskin)
- arxiv url: http://arxiv.org/abs/2007.04484v1
- Date: Thu, 9 Jul 2020 00:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:59:59.296892
- Title: Transparency Tools for Fairness in AI (Luskin)
- Title(参考訳): AI(Luskin)における公平性のための透明性ツール
- Authors: Mingliang Chen, Aria Shahverdi, Sarah Anderson, Se Yong Park, Justin
Zhang, Dana Dachman-Soled, Kristin Lauter, Min Wu
- Abstract要約: 我々は,AIアルゴリズムにおける公平さと偏見を評価し,補正するための新しいツールを提案する。
3つのツールは以下のとおりである。 - 保護された特徴とフィルタの選択に関して、"制御された公平性"と呼ばれる新しい公平性の定義。
それらは様々なバイアスの次元を理解するのに有用であり、実際、アルゴリズムは新しいデータでテストした場合、与えられた観測されたバイアスを減らすのに効果的である。
- 参考スコア(独自算出の注目度): 12.158766675246337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose new tools for policy-makers to use when assessing and correcting
fairness and bias in AI algorithms. The three tools are:
- A new definition of fairness called "controlled fairness" with respect to
choices of protected features and filters. The definition provides a simple
test of fairness of an algorithm with respect to a dataset. This notion of
fairness is suitable in cases where fairness is prioritized over accuracy, such
as in cases where there is no "ground truth" data, only data labeled with past
decisions (which may have been biased).
- Algorithms for retraining a given classifier to achieve "controlled
fairness" with respect to a choice of features and filters. Two algorithms are
presented, implemented and tested. These algorithms require training two
different models in two stages. We experiment with combinations of various
types of models for the first and second stage and report on which combinations
perform best in terms of fairness and accuracy.
- Algorithms for adjusting model parameters to achieve a notion of fairness
called "classification parity". This notion of fairness is suitable in cases
where accuracy is prioritized. Two algorithms are presented, one which assumes
that protected features are accessible to the model during testing, and one
which assumes protected features are not accessible during testing.
We evaluate our tools on three different publicly available datasets. We find
that the tools are useful for understanding various dimensions of bias, and
that in practice the algorithms are effective in starkly reducing a given
observed bias when tested on new data.
- Abstract(参考訳): 本稿では,aiアルゴリズムにおける公平性とバイアスの評価と修正に使用するポリシメーカのための新しいツールを提案する。
3つのツールは以下のとおりである。 - 保護された特徴とフィルタの選択に関して「制御された公正」と呼ばれる新しい公正の定義。
この定義は、データセットに関するアルゴリズムの公平性の簡単なテストを提供する。
この公平性の概念は、正確性よりも公平性が優先される場合、例えば「根拠真理」データがない場合、過去の決定でラベル付けされたデータのみ(偏りがあったかもしれない)に適合する。
-特徴やフィルタの選択に関して「制御された公平性」を達成するために与えられた分類器を再訓練するアルゴリズム。
2つのアルゴリズムが提示され、実装され、テストされる。
これらのアルゴリズムは2段階の異なるモデルを訓練する必要がある。
我々は,第1ステージと第2ステージの様々なモデルの組み合わせを実験し,公正さと精度の観点からどの組み合わせが最適かを報告する。
-「分類パリティ」と呼ばれる公平性の概念を達成するためにモデルパラメータを調整するアルゴリズム。
この公平性の概念は、精度が優先される場合に適している。
2つのアルゴリズムが提示され、1つは、テスト中に保護された機能がモデルにアクセス可能であると仮定し、もう1つは、保護された機能がテスト中にアクセスできないと仮定する。
ツールを3つの異なる公開データセットで評価する。
これらのツールは様々なバイアスの次元を理解するのに有用であり、実際に新しいデータでテストした場合、与えられたバイアスを著しく低減するアルゴリズムが有効であることがわかった。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Mitigating Bias in Set Selection with Noisy Protected Attributes [16.882719401742175]
ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
論文 参考訳(メタデータ) (2020-11-09T06:45:15Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Genetic programming approaches to learning fair classifiers [4.901632310846025]
フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
論文 参考訳(メタデータ) (2020-04-28T04:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。