論文の概要: Muffin: A Framework Toward Multi-Dimension AI Fairness by Uniting
Off-the-Shelf Models
- arxiv url: http://arxiv.org/abs/2308.13730v1
- Date: Sat, 26 Aug 2023 02:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 19:24:39.455073
- Title: Muffin: A Framework Toward Multi-Dimension AI Fairness by Uniting
Off-the-Shelf Models
- Title(参考訳): Muffin: オフザシェルフモデルの統一によるマルチディメンジョンAIフェアネスに向けたフレームワーク
- Authors: Yi Sheng, Junhuan Yang, Lei Yang, Yiyu Shi, Jingtongf Hu, Weiwen Jiang
- Abstract要約: モデルフェアネス(すなわちバイアス)は、幅広いAIアプリケーションにおいて最も重要な問題の一つとなっている。
本稿では,マルチ次元フェアネスフレームワーク,すなわちMuffinを提案する。このフレームワークは,複数の属性に対するフェアネスを同時に向上するために,市販モデルを統合する自動ツールを含む。
- 参考スコア(独自算出の注目度): 9.01924639426239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model fairness (a.k.a., bias) has become one of the most critical problems in
a wide range of AI applications. An unfair model in autonomous driving may
cause a traffic accident if corner cases (e.g., extreme weather) cannot be
fairly regarded; or it will incur healthcare disparities if the AI model
misdiagnoses a certain group of people (e.g., brown and black skin). In recent
years, there have been emerging research works on addressing unfairness, and
they mainly focus on a single unfair attribute, like skin tone; however,
real-world data commonly have multiple attributes, among which unfairness can
exist in more than one attribute, called 'multi-dimensional fairness'. In this
paper, we first reveal a strong correlation between the different unfair
attributes, i.e., optimizing fairness on one attribute will lead to the
collapse of others. Then, we propose a novel Multi-Dimension Fairness
framework, namely Muffin, which includes an automatic tool to unite
off-the-shelf models to improve the fairness on multiple attributes
simultaneously. Case studies on dermatology datasets with two unfair attributes
show that the existing approach can achieve 21.05% fairness improvement on the
first attribute while it makes the second attribute unfair by 1.85%. On the
other hand, the proposed Muffin can unite multiple models to achieve
simultaneously 26.32% and 20.37% fairness improvement on both attributes;
meanwhile, it obtains 5.58% accuracy gain.
- Abstract(参考訳): モデルフェアネス(すなわちバイアス)は、幅広いAIアプリケーションにおいて最も重要な問題の一つとなっている。
自動運転車における不公平なモデルは、コーナーケース(例えば、極端な天候)が十分に考慮されない場合や、aiモデルが特定のグループ(例えば茶色と黒の肌)を誤診した場合、医療格差を引き起こす可能性がある。
近年では不公平に対処する研究が盛んに行われており、主に肌の色調などの不公平な属性に焦点が当てられているが、現実のデータは複数の属性を持つことが多く、「多次元公正」と呼ばれる複数の属性に不公平が存在する。
本稿ではまず,不公平な属性間の強い相関関係を明らかにする。すなわち,ある属性に対する公平性を最適化することは,他の属性の崩壊につながる。
そこで本研究では,複数の属性の公平性を向上させるために,既成モデルを統合する自動ツールを含むマルチディメンション・フェアネス・フレームワークであるmuffinを提案する。
2つの不公平属性を持つ皮膚科学データセットのケーススタディでは、既存のアプローチは第1属性に対して21.05%の公平性を達成でき、第2属性は1.85%不公平にすることができる。
一方、提案されたMuffinは複数のモデルを組み合わせて、両方の属性に対して26.32%と20.37%の公平性を同時に達成することができる。
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Multi-Fair Pareto Boosting [7.824964622317634]
マルチ属性)保護グループとインスタンスのクラスメンバシップの両方を考慮しながら、不公平度を測定する新しい公平性概念であるMulti-Max Mistreatment(MMM)を紹介します。
本研究では,分散更新とポストトレーニングにおいて,マルチフェアネス処理を取り入れたブースティング手法を用いて問題を解決する。
論文 参考訳(メタデータ) (2021-04-27T16:37:35Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。