論文の概要: Happiness as a Measure of Fairness
- arxiv url: http://arxiv.org/abs/2511.01069v1
- Date: Sun, 02 Nov 2025 20:27:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.053338
- Title: Happiness as a Measure of Fairness
- Title(参考訳): フェアネスの尺度としての幸福
- Authors: Georg Pichler, Marco Romanelli, Pablo Piantanida,
- Abstract要約: 本研究では,幸福の概念に基づく新たなフェアネス・フレームワークを提案する。
最適で公平な後処理戦略を計算するためには,線形プログラムのみを解く必要がある。
- 参考スコア(独自算出の注目度): 26.06606996807203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel fairness framework grounded in the concept of happiness, a measure of the utility each group gains fromdecisionoutcomes. Bycapturingfairness through this intuitive lens, we not only offer a more human-centered approach, but also one that is mathematically rigorous: In order to compute the optimal, fair post-processing strategy, only a linear program needs to be solved. This makes our method both efficient and scalable with existing optimization tools. Furthermore, it unifies and extends several well-known fairness definitions, and our empirical results highlight its practical strengths across diverse scenarios.
- Abstract(参考訳): 本稿では,幸福の概念に基づく新たなフェアネス・フレームワークを提案する。
この直感的なレンズによるフェアネスのカプセル化によって、より人間中心のアプローチを提供するだけでなく、数学的に厳密なアプローチも提供します。
これにより、既存の最適化ツールでメソッドを効率的かつスケーラブルにします。
さらに、いくつかのよく知られた公正定義を統一し、拡張し、実証的な結果により、様々なシナリオにまたがる実用的強みを強調します。
関連論文リスト
- Efficient Fairness-Performance Pareto Front Computation [45.088727439928704]
最適公正表現はいくつかの有用な構造特性を持つことを示す。
そこで,これらの近似問題は,凹凸プログラミング法により効率的に解けることを示す。
論文 参考訳(メタデータ) (2024-09-26T08:46:48Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Integrating Fairness and Model Pruning Through Bi-level Optimization [16.213634992886384]
フェアネス基準に準拠したスパースモデルを開発することを含む、フェアモデルプルーニングという新しい概念を導入する。
特に,プルーニングマスクと重み更新処理を公平性制約で協調的に最適化する枠組みを提案する。
このフレームワークは、統一されたプロセスにおける公正性を確保しながら、パフォーマンスを維持するモデルを圧縮するように設計されている。
論文 参考訳(メタデータ) (2023-12-15T20:08:53Z) - Fairness in Multi-Task Learning via Wasserstein Barycenters [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、データのバイアスを減らすことを目的とした機械学習の確立された分野である。
我々は,マルチマルジナル・ワッサースタイン・バリセンタを用いたマルチタスク学習に対して,Strong Demographic Parityの定義を拡張した手法を開発した。
提案手法は回帰および二項分類タスクを含む最適フェアマルチタスク予測器に対する閉形式解を提供する。
論文 参考訳(メタデータ) (2023-06-16T19:53:34Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Pushing the limits of fairness impossibility: Who's the fairest of them
all? [6.396013144017572]
3つの指標を最大限に満たすために,不合理定理の限界を押し上げる枠組みを提案する。
モデル性能を最小限に抑えつつ,各定義の公平性を両立できることを示す実験を行った。
論文 参考訳(メタデータ) (2022-08-24T22:04:51Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - The Fairness-Accuracy Pareto Front [19.556904444436523]
アルゴリズムフェアネスは、機械学習アルゴリズムのバイアス源を特定し、修正しようとする。
アルゴリズムの公正性において、この基本的な緊張を和らげるための公式なツールを提供する。
論文 参考訳(メタデータ) (2020-08-25T03:32:15Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。