論文の概要: Re-formalization of Individual Fairness
- arxiv url: http://arxiv.org/abs/2309.05521v1
- Date: Mon, 11 Sep 2023 15:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 12:10:16.867135
- Title: Re-formalization of Individual Fairness
- Title(参考訳): 個別公正の再形式化
- Authors: Toshihiro Kamishima
- Abstract要約: 個人の公平性の概念は、倫理的原則の形式化であり、"Treating like case alike"である。
本稿では,個人が規定する統計的独立性により,個人的公正性を再形式化することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of individual fairness is a formalization of an ethical principle,
"Treating like cases alike," which has been argued such as by Aristotle. In a
fairness-aware machine learning context, Dwork et al. firstly formalized the
notion. In their formalization, a similar pair of data in an unfair space
should be mapped to similar positions in a fair space. We propose to
re-formalize individual fairness by the statistical independence conditioned by
individuals. This re-formalization has the following merits. First, our
formalization is compatible with that of Dwork et al. Second, our formalization
enables to combine individual fairness with the fairness notion, equalized odds
or sufficiency, as well as statistical parity. Third, though their
formalization implicitly assumes a pre-process approach for making fair
prediction, our formalization is applicable to an in-process or post-process
approach.
- Abstract(参考訳): 個々人の公平性の概念は、アリストテレスのように議論されている「ケースのように扱う」という倫理的原則の形式化である。
公正を意識した機械学習の文脈で、Dworkらはまずこの概念を定式化した。
形式化において、不公平な空間における同様のデータの対は、公正な空間における同様の位置にマッピングされるべきである。
本稿では,個人が規定する統計的独立性により,個人的公正性を再形成することを提案する。
この再形式化には以下のメリットがある。
まず、私たちの形式化はDworkなどと互換性があります。
第二に、我々の形式化は、個々人の公正さと公平性の概念、等化確率または十分性、および統計パリティを組み合わせることができる。
第三に、それらの形式化は、公正な予測を行うためのプロセス前アプローチを暗黙的に仮定するが、我々の形式化はプロセス内アプローチやプロセス後アプローチに適用できる。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - The Long Arc of Fairness: Formalisations and Ethical Discourse [0.0]
我々は、技術(形式化された)と公正に関する倫理的言説の関係は必ずしも明確で生産的であるとは限らないと論じる。
我々は、より包括的なアプローチであるダイナミックフェアネス・モデリングを導入し、倫理的言説からの議論とフォーマルフェアネス・メトリクスを実現する。
フェアネス関連プロセスのこれらの要素を文脈化することにより、動的フェアネスモデリングは、以前は遅滞した倫理的側面を明示する。
論文 参考訳(メタデータ) (2022-03-08T09:54:59Z) - Leave-one-out Unfairness [17.221751674951562]
これは、モデルのトレーニングデータに1人の人物が含まれたり排除されたりすることで、モデルの個人に対する予測がどれほど変化するかを特徴付ける。
一般化誤差が小さい場合を含め、実データ上でディープモデルがどのように不公平に振る舞うかを特徴付ける。
脱却不公平によって負の影響を受ける可能性のある健全な実践的応用について論じる。
論文 参考訳(メタデータ) (2021-07-21T15:55:49Z) - Towards the Right Kind of Fairness in AI [3.723553383515688]
フェアネスコンパス(Fairness Compass)は、特定のシステムに対して最も適切なフェアネスメトリックを簡単かつ簡単な手順で特定するツールである。
私たちは、このプロセスの過程で各決定の背後にある推論を文書化することは、ユーザーからの信頼を構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-02-16T21:12:30Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。