論文の概要: Visual Model Selection using Feature Importance Clusters in Fairness-Performance Similarity Optimized Space
- arxiv url: http://arxiv.org/abs/2510.22209v1
- Date: Sat, 25 Oct 2025 08:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.505447
- Title: Visual Model Selection using Feature Importance Clusters in Fairness-Performance Similarity Optimized Space
- Title(参考訳): フェアネス-パフォーマンス類似性最適化空間における特徴量クラスタを用いた視覚モデル選択
- Authors: Sofoklis Kitharidis, Cor J. Veenman, Thomas Bäck, Niki van Stein,
- Abstract要約: モデルポートフォリオ間のトレードオフのナビゲートと解釈を支援するインタラクティブなフレームワークを提案する。
我々の手法は、弱教師付き計量学習を利用して、公正さとパフォーマンス結果の類似性を反映したマハラノビス距離を学習する。
次に,特徴量の変換表現に基づいて,グループモデルにクラスタリング手法(k-means)を適用する。
- 参考スコア(独自算出の注目度): 1.8682641481190012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of algorithmic decision-making, fair machine learning methods often yield multiple models that balance predictive fairness and performance in varying degrees. This diversity introduces a challenge for stakeholders who must select a model that aligns with their specific requirements and values. To address this, we propose an interactive framework that assists in navigating and interpreting the trade-offs across a portfolio of models. Our approach leverages weakly supervised metric learning to learn a Mahalanobis distance that reflects similarity in fairness and performance outcomes, effectively structuring the feature importance space of the models according to stakeholder-relevant criteria. We then apply clustering technique (k-means) to group models based on their transformed representations of feature importances, allowing users to explore clusters of models with similar predictive behaviors and fairness characteristics. This facilitates informed decision-making by helping users understand how models differ not only in their fairness-performance balance but also in the features that drive their predictions.
- Abstract(参考訳): アルゴリズムによる意思決定の文脈では、公正な機械学習手法は、予測的公正性と様々な程度の性能のバランスをとる複数のモデルを生成することが多い。
この多様性は、特定の要求や価値と整合したモデルを選択する必要があるステークホルダーに課題をもたらします。
そこで本研究では,モデルポートフォリオ間のトレードオフのナビゲートと解釈を支援する,インタラクティブなフレームワークを提案する。
提案手法は,マハラノビス距離(Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis distance,Mahalanobis similarity in fairness and Performance outcomes)を学習するために弱教師付き計量学習を利用する。
次に、特徴量の変換表現に基づくグループモデルにクラスタリング手法(k-means)を適用し、類似した予測挙動と公平性特性を持つモデルのクラスタを探索する。
これにより、モデルが公平さとパフォーマンスのバランスだけでなく、予測を駆動する機能においてどのように異なるかを理解することができる。
関連論文リスト
- Enhancing Model Fairness and Accuracy with Similarity Networks: A Methodological Approach [0.20718016474717196]
インスタンスを類似機能空間にマッピングするために、さまざまなテクニックを使用します。
本手法は, モデルフェアネスとデータセット分類複雑性の関係について, ペアワイズ類似性の分解能を調整できる。
論文 参考訳(メタデータ) (2024-11-08T15:43:01Z) - From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。