論文の概要: Learning Time-Varying Convexifications of Multiple Fairness Measures
- arxiv url: http://arxiv.org/abs/2508.14311v1
- Date: Tue, 19 Aug 2025 23:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.288803
- Title: Learning Time-Varying Convexifications of Multiple Fairness Measures
- Title(参考訳): 複数の公正度尺度の時間変化凸化学習
- Authors: Quan Zhou, Jakub Marecek, Robert Shorten,
- Abstract要約: フェアネスレギュラーの相対的な重みは、未熟であり、時間の変化があり、ハエで学ぶ必要があるかもしれない。
グラフ構造フィードバックを限定した複数公正度尺度の時間変動凸化の学習について検討する。
- 参考スコア(独自算出の注目度): 7.678048572925845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing appreciation that one may need to consider multiple measures of fairness, e.g., considering multiple group and individual fairness notions. The relative weights of the fairness regularisers are a priori unknown, may be time varying, and need to be learned on the fly. We consider the learning of time-varying convexifications of multiple fairness measures with limited graph-structured feedback.
- Abstract(参考訳): 複数の群と個々人の公正性の概念を考えるなど、複数の公正性の尺度を考える必要があるという評価が高まっている。
フェアネスレギュラーの相対的な重みは、未熟であり、時間の変化があり、ハエで学ぶ必要があるかもしれない。
グラフ構造フィードバックを限定した複数公正度尺度の時間変動凸化の学習について検討する。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Increasing Fairness via Combination with Learning Guarantees [8.116369626226815]
本研究では,個人的,集団的公正性の両面を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
本研究では,その特性を調査し,理論学習保証と組み合わさることで,公正性を高めることができることを示す。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning [0.8563354084119061]
1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
複数のメトリクスを同時に最適化するために、多目的進化学習フレームワークが使用される。
提案アルゴリズムは,意思決定者に対して,精度とマルチフェアネス指標のトレードオフを向上する。
論文 参考訳(メタデータ) (2022-10-30T06:34:10Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。