論文の概要: Multi-Output Distributional Fairness via Post-Processing
- arxiv url: http://arxiv.org/abs/2409.00553v2
- Date: Thu, 20 Mar 2025 16:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 15:30:51.752263
- Title: Multi-Output Distributional Fairness via Post-Processing
- Title(参考訳): ポストプロセシングによる多出力分布フェアネス
- Authors: Gang Li, Qihang Lin, Ayush Ghosh, Tianbao Yang,
- Abstract要約: 本稿では,タスクに依存しない公平度尺度である分散パリティを高めるために,マルチ出力モデルに対する後処理手法を提案する。
分布パリティを達成するための既存の方法は、モデルの出力の(逆)累積密度関数に依存する。
正確なバリセンタの計算の複雑さを低減するために近似手法を適用した。
- 参考スコア(独自算出の注目度): 47.94071156898198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The post-processing approaches are becoming prominent techniques to enhance machine learning models' fairness because of their intuitiveness, low computational cost, and excellent scalability. However, most existing post-processing methods are designed for task-specific fairness measures and are limited to single-output models. In this paper, we introduce a post-processing method for multi-output models, such as the ones used for multi-task/multi-class classification and representation learning, to enhance a model's distributional parity, a task-agnostic fairness measure. Existing methods for achieving distributional parity rely on the (inverse) cumulative density function of a model's output, restricting their applicability to single-output models. Extending previous works, we propose to employ optimal transport mappings to move a model's outputs across different groups towards their empirical Wasserstein barycenter. An approximation technique is applied to reduce the complexity of computing the exact barycenter and a kernel regression method is proposed to extend this process to out-of-sample data. Our empirical studies evaluate the proposed approach against various baselines on multi-task/multi-class classification and representation learning tasks, demonstrating the effectiveness of the proposed approach.
- Abstract(参考訳): 後処理のアプローチは、直感性、計算コストの低減、スケーラビリティの優れたため、機械学習モデルの公正性を高めるための顕著なテクニックになりつつある。
しかし、既存のほとんどの後処理方法はタスク固有の公正度測定のために設計されており、単一出力モデルに限定されている。
本稿では,マルチタスク/マルチクラス分類や表現学習に使用されるようなマルチアウトプットモデルのポストプロセッシング手法を提案する。
分布パリティを達成するための既存の方法は、モデルの出力の(逆)累積密度関数に依存しており、それらが単一出力モデルに適用可能であることを制限している。
先行研究を拡張して,モデルの出力を実験的なワッサーシュタインバリセンタへ移動させるため,最適な輸送マッピングを提案する。
正確なバリセンタの計算の複雑さを軽減するために近似手法を適用し、この処理をサンプル外データに拡張するカーネル回帰法を提案する。
提案手法の有効性を実証し,マルチタスク/マルチクラス分類および表現学習タスクに基づく多様なベースラインに対する提案手法の評価を行った。
関連論文リスト
- Platonic Grounding for Efficient Multimodal Language Models [22.715168904364756]
我々は、事前訓練されたモデルの整合性に依存する既存のマルチモーダルフレームワークをモチベーションし、簡単な修正を提案する。
私たちの研究は、事前学習されたモデルをより大規模なシステムに効率的に組み合わせることにも影響します。
論文 参考訳(メタデータ) (2025-04-27T18:56:26Z) - Explainable post-training bias mitigation with distribution-based fairness metrics [0.0]
人口統計学的に盲目で説明可能なモデルを生成するために,分布に基づく公平性制約を用いた新しい最適化フレームワークを開発した。
我々のフレームワークは勾配勾配に基づいており、広範囲のモデルタイプに適用できる。
我々は、これまでの研究に基づいて、我々の手法と互換性のある、解釈可能なグローバルバイアスメトリクスの幅広いクラスを設計する。
論文 参考訳(メタデータ) (2025-04-01T22:22:25Z) - Merging Models on the Fly Without Retraining: A Sequential Approach to Scalable Continual Model Merging [75.93960998357812]
ディープモデルマージ(Deep Modelmerging)は、複数の微調整モデルを組み合わせて、さまざまなタスクやドメインにまたがる能力を活用する、新たな研究方向を示すものだ。
現在のモデルマージ技術は、全ての利用可能なモデルを同時にマージすることに集中しており、重量行列に基づく手法が主要なアプローチである。
本稿では,モデルを逐次処理するトレーニングフリーなプロジェクションベース連続マージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T13:17:24Z) - Efficient Fairness-Performance Pareto Front Computation [51.558848491038916]
最適公正表現はいくつかの有用な構造特性を持つことを示す。
そこで,これらの近似問題は,凹凸プログラミング法により効率的に解けることを示す。
論文 参考訳(メタデータ) (2024-09-26T08:46:48Z) - Multi-objective Binary Differential Approach with Parameter Tuning for Discovering Business Process Models: MoD-ProM [2.3423913554158653]
本稿では,プロセス発見のための多目的フレームワークにおけるバイナリ微分進化手法について考察する。
提案手法により生成されたプロセスモデルは、最先端のアルゴリズムで生成されたプロセスよりも優れているか、少なくとも優れていることが示されている。
論文 参考訳(メタデータ) (2024-06-25T16:53:55Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - Parameter Efficient Multi-task Model Fusion with Partial Linearization [97.23530944186078]
パラメータ効率のよい微調整技術において,マルチタスク融合を改善する新しい手法を提案する。
提案手法は, アダプタモジュールのみを部分的に線形化し, 線形化アダプタにタスク演算を適用する。
我々の部分線形化手法は、複数のタスクをより効果的に1つのモデルに融合させることを可能にしている。
論文 参考訳(メタデータ) (2023-10-07T08:55:54Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - Fairness in Multi-Task Learning via Wasserstein Barycenters [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、データのバイアスを減らすことを目的とした機械学習の確立された分野である。
我々は,マルチマルジナル・ワッサースタイン・バリセンタを用いたマルチタスク学習に対して,Strong Demographic Parityの定義を拡張した手法を開発した。
提案手法は回帰および二項分類タスクを含む最適フェアマルチタスク予測器に対する閉形式解を提供する。
論文 参考訳(メタデータ) (2023-06-16T19:53:34Z) - Distilling from Similar Tasks for Transfer Learning on a Budget [38.998980344852846]
転送学習は、ラベルの少ないトレーニングに有効なソリューションであるが、大きなベースモデルの計算的にコストのかかる微調整を犠牲にすることがしばしばある。
本稿では,半教師付きクロスドメイン蒸留による計算と精度のトレードオフを軽減することを提案する。
我々の手法は、ソースデータにアクセスする必要はなく、単にソースモデルの機能や擬似ラベルが必要なだけである。
論文 参考訳(メタデータ) (2023-04-24T17:59:01Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。