論文の概要: Longitudinal Fairness with Censorship
- arxiv url: http://arxiv.org/abs/2203.16024v2
- Date: Thu, 31 Mar 2022 01:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 13:07:59.615780
- Title: Longitudinal Fairness with Censorship
- Title(参考訳): 検閲を伴う縦公平性
- Authors: Wenbin Zhang and Jeremy C. Weiss
- Abstract要約: 我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、検閲なしで公正度を橋渡しするために必要な理論的構造を提供する。
検閲された4つのデータセットに対する実験により、我々のアプローチの有効性が確認された。
- 参考スコア(独自算出の注目度): 1.5688552250473473
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent works in artificial intelligence fairness attempt to mitigate
discrimination by proposing constrained optimization programs that achieve
parity for some fairness statistic. Most assume availability of the class
label, which is impractical in many real-world applications such as precision
medicine, actuarial analysis and recidivism prediction. Here we consider
fairness in longitudinal right-censored environments, where the time to event
might be unknown, resulting in censorship of the class label and
inapplicability of existing fairness studies. We devise applicable fairness
measures, propose a debiasing algorithm, and provide necessary theoretical
constructs to bridge fairness with and without censorship for these important
and socially-sensitive tasks. Our experiments on four censored datasets confirm
the utility of our approach.
- Abstract(参考訳): 人工知能の公正性に関する最近の研究は、公平性統計のパリティを達成する制約付き最適化プログラムを提案し、差別を緩和しようとする試みである。
ほとんどがクラスラベルの可用性を仮定しており、精密医学、時間的分析、再帰的予測など、多くの実世界のアプリケーションでは実用的でない。
ここでは, 連続的右検閲環境において, 事象の時期が不明な場合, クラスラベルの検閲と既存フェアネス研究の不適用性について考察する。
我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、これらの重要かつ社会的に敏感なタスクに対して検閲なしで公正度を橋渡しするために必要な理論的構成を提供する。
4つの検閲データセットに関する実験で,提案手法の有用性を確認した。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Causal Fairness under Unobserved Confounding: A Neural Sensitivity Framework [24.91413609641092]
本研究では, 因果フェアネスの非観測的コンバウンディングに対する感度分析を行った。
公正な予測を学習するための新しいニューラルネットワークフレームワークを提案する。
我々の知識を最大限に活用するために、我々の研究は、観測されていない発見の下で因果フェアネスを研究する最初の研究である。
論文 参考訳(メタデータ) (2023-11-30T11:11:26Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Decision-making Under Uncertainty [1.5688552250473473]
公平性制約を考慮した縦断的検閲学習問題について検討する。
検閲情報を含む新たに考案された公正概念と,検閲の存在下での公正な予測のための一般的な枠組みが,不確実性の下での計測と差別を可能にしていることを示す。
論文 参考訳(メタデータ) (2023-01-29T05:42:39Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z) - A Statistical Test for Probabilistic Fairness [11.95891442664266]
不正な分類を検知するための統計的仮説テストを提案する。
理論的にも実証的にも,提案された試験が正しいことを示す。
さらに,提案フレームワークは,データの最も好ましい摂動を識別することにより,解釈可能性を提供する。
論文 参考訳(メタデータ) (2020-12-09T00:20:02Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。