論文の概要: MMM-fair: An Interactive Toolkit for Exploring and Operationalizing Multi-Fairness Trade-offs
- arxiv url: http://arxiv.org/abs/2509.08156v1
- Date: Tue, 09 Sep 2025 21:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.253117
- Title: MMM-fair: An Interactive Toolkit for Exploring and Operationalizing Multi-Fairness Trade-offs
- Title(参考訳): MMM-fair:マルチフェーネストレードオフの探索と運用のためのインタラクティブツールキット
- Authors: Swati Swati, Arjun Roy, Emmanouil Panagiotou, Eirini Ntoutsi,
- Abstract要約: mmm-fairは、多次元フェアネスと関連するトレードオフを探索するオープンソースツールである。
詳細なマルチ属性フェアネス、マルチオブジェクト最適化、ノーコード、チャットベースのインターフェース、LLMを使った説明、デプロイメント対応モデルを組み合わせたものだ。
- 参考スコア(独自算出の注目度): 2.0019258650495493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness-aware classification requires balancing performance and fairness, often intensified by intersectional biases. Conflicting fairness definitions further complicate the task, making it difficult to identify universally fair solutions. Despite growing regulatory and societal demands for equitable AI, popular toolkits offer limited support for exploring multi-dimensional fairness and related trade-offs. To address this, we present mmm-fair, an open-source toolkit leveraging boosting-based ensemble approaches that dynamically optimizes model weights to jointly minimize classification errors and diverse fairness violations, enabling flexible multi-objective optimization. The system empowers users to deploy models that align with their context-specific needs while reliably uncovering intersectional biases often missed by state-of-the-art methods. In a nutshell, mmm-fair uniquely combines in-depth multi-attribute fairness, multi-objective optimization, a no-code, chat-based interface, LLM-powered explanations, interactive Pareto exploration for model selection, custom fairness constraint definition, and deployment-ready models in a single open-source toolkit, a combination rarely found in existing fairness tools. Demo walkthrough available at: https://youtu.be/_rcpjlXFqkw.
- Abstract(参考訳): 公平を意識した分類は、しばしば交叉バイアスによって強化される、性能と公平性のバランスを必要とする。
公正性の定義の矛盾はタスクをさらに複雑にし、普遍的に公正な解を特定するのが難しくなる。
平等なAIに対する規制と社会的要求が増大しているにもかかわらず、人気のあるツールキットは多次元の公正さと関連するトレードオフを探索するための限定的なサポートを提供する。
そこで我々は, モデル重みを動的に最適化し, 分類誤差と多種多種多様な公正違反を動的に最小化し, 柔軟な多目的最適化を実現するオープンソースツールキットmmm-fairを提案する。
このシステムは、ユーザがコンテキスト固有のニーズに合わせてモデルをデプロイすることを可能にすると同時に、最先端の手法でしばしば見逃される交差点バイアスを確実に発見する。
簡単に言えば、mmm-fairは、奥行きのマルチ属性フェアネス、マルチオブジェクト最適化、ノーコード、チャットベースのインターフェース、LLMを使った説明、モデル選択のためのインタラクティブなPareto探索、カスタムフェアネス制約定義、単一オープンソースツールキットでのデプロイメント対応モデルを組み合わせたものだ。
デモウォークスルーは、https://youtu.be/_rcpjlXFqkw.comで公開されている。
関連論文リスト
- MEL: Multi-level Ensemble Learning for Resource-Constrained Environments [1.59297928921015]
我々は、弾力性のあるエッジ推論のための新しいフレームワーク、Mel(Multi-Level Ensemble Learning)を提案する。
MELは、複数のサーバが利用可能で、独立して障害下で、協調動作可能な複数の軽量バックアップモデルをトレーニングする。
視覚、言語、オーディオデータセットにわたる経験的評価は、MELが元のアーキテクチャに匹敵するパフォーマンスを提供することを示している。
論文 参考訳(メタデータ) (2025-06-25T02:33:57Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Multi-granularity Contrastive Cross-modal Collaborative Generation for End-to-End Long-term Video Question Answering [53.39158264785098]
ビデオQA(Long-term Video Question Answering)は、視覚的および言語的ブリッジングの課題である。
マルチグラニュラリティ コントラスト クロスモーダル・コラボレーティブ・ジェネレーション・モデル。
論文 参考訳(メタデータ) (2024-10-12T06:21:58Z) - LLM4Rerank: LLM-based Auto-Reranking Framework for Recommendations [51.76373105981212]
リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
そこで我々は,様々な格付け基準をシームレスに統合する包括的格付けフレームワークを提案する。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
論文 参考訳(メタデータ) (2024-06-18T09:29:18Z) - U3M: Unbiased Multiscale Modal Fusion Model for Multimodal Semantic Segmentation [63.31007867379312]
U3M: An Unbiased Multiscale Modal Fusion Model for Multimodal Semanticsを紹介する。
我々は,グローバルな特徴とローカルな特徴の効果的な抽出と統合を保証するために,複数のスケールで機能融合を採用している。
実験により,本手法は複数のデータセットにまたがって優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-24T08:58:48Z) - Enhancing Fairness and Performance in Machine Learning Models: A Multi-Task Learning Approach with Monte-Carlo Dropout and Pareto Optimality [1.5498930424110338]
本研究では,モデル不確実性を利用した機械学習におけるバイアス軽減手法を提案する。
提案手法では,モンテカルロ・ドロップアウト(MC)と組み合わせたマルチタスク学習(MTL)フレームワークを用いて,保護ラベルに関連する予測の不確実性を評価・緩和する。
論文 参考訳(メタデータ) (2024-04-12T04:17:50Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - Optimizing fairness tradeoffs in machine learning with multiobjective
meta-models [0.913755431537592]
複数のコスト関数を持つ重み付き分類問題として、公平な機械学習タスクを定義するフレキシブルなフレームワークを提案する。
我々は、与えられた学習者のモデルトレーニングで使用されるサンプル重量を定義するために多目的最適化を使用し、重みを適応させ、公平性と精度の複数の指標を最適化する。
実世界の一連の問題において、このアプローチは、好ましいエラー/フェアネストレードオフを持つ解集合を見つけることによって、現在の最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-21T13:42:49Z) - Learning Optimal Fair Scoring Systems for Multi-Class Classification [0.0]
機械学習モデルには、解釈可能性の欠如と、それらが生成または再現できる望ましくないバイアスに関する懸念が高まっている。
本稿では,混合整数線形計画法(MILP)を用いて,分散性と公正性制約下で本質的に解釈可能なスコアリングシステムを生成する。
論文 参考訳(メタデータ) (2023-04-11T07:18:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Multi-Fair Pareto Boosting [7.824964622317634]
マルチ属性)保護グループとインスタンスのクラスメンバシップの両方を考慮しながら、不公平度を測定する新しい公平性概念であるMulti-Max Mistreatment(MMM)を紹介します。
本研究では,分散更新とポストトレーニングにおいて,マルチフェアネス処理を取り入れたブースティング手法を用いて問題を解決する。
論文 参考訳(メタデータ) (2021-04-27T16:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。