論文の概要: fairlib: A Unified Framework for Assessing and Improving Classification
Fairness
- arxiv url: http://arxiv.org/abs/2205.01876v1
- Date: Wed, 4 May 2022 03:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 14:05:59.756723
- Title: fairlib: A Unified Framework for Assessing and Improving Classification
Fairness
- Title(参考訳): fairlib: 分類公平性の評価と改善のための統一フレームワーク
- Authors: Xudong Han, Aili Shen, Yitong Li, Lea Frermann, Timothy Baldwin,
Trevor Cohn
- Abstract要約: Fairlibは、分類の公平さを評価し改善するためのオープンソースのフレームワークである。
我々は、前処理、訓練時間、後処理を含む14のデバイアス化手法を実装した。
組み込まれたメトリクスは、最も一般的に使用されるフェアネス基準をカバーし、フェアネス評価のためにさらに一般化およびカスタマイズすることができる。
- 参考スコア(独自算出の注目度): 66.27822109651757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents fairlib, an open-source framework for assessing and
improving classification fairness. It provides a systematic framework for
quickly reproducing existing baseline models, developing new methods,
evaluating models with different metrics, and visualizing their results. Its
modularity and extensibility enable the framework to be used for diverse types
of inputs, including natural language, images, and audio. In detail, we
implement 14 debiasing methods, including pre-processing, at-training-time, and
post-processing approaches. The built-in metrics cover the most commonly used
fairness criterion and can be further generalized and customized for fairness
evaluation.
- Abstract(参考訳): 本稿では,分類公正性を評価・改善するためのオープンソースフレームワークである Fairlib を提案する。
既存のベースラインモデルを迅速に再現し、新しいメソッドを開発し、異なるメトリクスでモデルを評価し、結果を視覚化するための体系的なフレームワークを提供する。
そのモジュラリティと拡張性により、自然言語、画像、音声など、さまざまな入力タイプにフレームワークを使用することができる。
具体的には,プリプロセッシング,アトトレーニング時間,ポストプロセッシング手法を含む14のデバイアス手法を実装した。
組み込まれたメトリクスは最も一般的に使用されるフェアネス基準をカバーし、フェアネス評価をより一般化しカスタマイズすることができる。
関連論文リスト
- Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - A Similarity-based Framework for Classification Task [21.182406977328267]
類似性に基づく手法は,複数ラベル学習のための新しい手法のクラスを生み出し,有望な性能を達成する。
類似性に基づく学習と一般化された線形モデルを組み合わせて、両方の世界のベストを達成します。
論文 参考訳(メタデータ) (2022-03-05T06:39:50Z) - Set-valued classification -- overview via a unified framework [15.109906768606644]
マルチクラスのデータセットは極めて曖昧で、単一出力の予測では十分なパフォーマンスが得られない。
予測者がラベル候補のセットを予測できるようにすることで、セット値分類は、この曖昧さに対処する自然な方法を提供する。
無限サンプルの最適集合値分類戦略を提供し,データ駆動アルゴリズムを構築するための一般的なプラグイン原理を考察する。
論文 参考訳(メタデータ) (2021-02-24T14:54:07Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z) - Unbiased Subdata Selection for Fair Classification: A Unified Framework
and Scalable Algorithms [0.8376091455761261]
このフレームワーク内の多くの分類モデルが混合整数凸プログラムとして再キャストできることを示した。
そして,提案問題において,分類結果の「解決不能な部分データ選択」が強く解決可能であることを示す。
これにより、分類インスタンスを解決するための反復精錬戦略(IRS)の開発を動機付けます。
論文 参考訳(メタデータ) (2020-12-22T21:09:38Z) - Visual-Semantic Embedding Model Informed by Structured Knowledge [3.2734466030053175]
本稿では,外部構造的知識ベースから取得した概念表現を組み込むことにより,視覚意味の埋め込みモデルを改善する新しい手法を提案する。
標準設定とゼロショット設定の両方で画像分類の性能について検討する。
論文 参考訳(メタデータ) (2020-09-21T17:04:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。