論文の概要: Fair-MoE: Fairness-Oriented Mixture of Experts in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2502.06094v1
- Date: Mon, 10 Feb 2025 01:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:31:52.543381
- Title: Fair-MoE: Fairness-Oriented Mixture of Experts in Vision-Language Models
- Title(参考訳): Fair-MoE:視覚・言語モデルにおけるエキスパートの公正指向の混合
- Authors: Peiran Wang, Linjie Tong, Jiaxiang Liu, Zuozhu Liu,
- Abstract要約: フェアネスと有効性の両方を保証するために特別に設計されたモデルであるFair-MoEを提案する。
Fair-MoEは2つの重要なコンポーネントで構成されている: textitthe Fairness-Oriented Mixture of Experts (FO-MoE)と textitthe Fairness-Oriented Loss (FOL)である。
- 参考スコア(独自算出の注目度): 7.808926474503611
- License:
- Abstract: Fairness is a fundamental principle in medical ethics. Vision Language Models (VLMs) have shown significant potential in the medical field due to their ability to leverage both visual and linguistic contexts, reducing the need for large datasets and enabling the performance of complex tasks. However, the exploration of fairness within VLM applications remains limited. Applying VLMs without a comprehensive analysis of fairness could lead to concerns about equal treatment opportunities and diminish public trust in medical deep learning models. To build trust in medical VLMs, we propose Fair-MoE, a model specifically designed to ensure both fairness and effectiveness. Fair-MoE comprises two key components: \textit{the Fairness-Oriented Mixture of Experts (FO-MoE)} and \textit{the Fairness-Oriented Loss (FOL)}. FO-MoE is designed to leverage the expertise of various specialists to filter out biased patch embeddings and use an ensemble approach to extract more equitable information relevant to specific tasks. FOL is a novel fairness-oriented loss function that not only minimizes the distances between different attributes but also optimizes the differences in the dispersion of various attributes' distributions. Extended experiments demonstrate the effectiveness and fairness of Fair-MoE. Tested on the Harvard-FairVLMed dataset, Fair-MoE showed improvements in both fairness and accuracy across all four attributes. Code will be publicly available.
- Abstract(参考訳): 公正は医療倫理の基本的な原則である。
ビジョン言語モデル(VLM)は、視覚的コンテキストと言語的コンテキストの両方を活用する能力、大規模なデータセットの必要性の低減、複雑なタスクのパフォーマンスの実現など、医療分野において大きな可能性を示している。
しかしながら、VLMアプリケーション内での公正性の探索は依然として限られている。
公平性を包括的に分析しないVLMの適用は、平等な治療機会への懸念と、医療深層学習モデルに対する一般の信頼を低下させる可能性がある。
医療用VLMの信頼性を高めるために,フェアネスと有効性を両立するモデルであるFair-MoEを提案する。
Fair-MoEは2つの主要なコンポーネントから構成される: \textit{the Fairness-Oriented Mixture of Experts (FO-MoE) と \textit{the Fairness-Oriented Loss (FOL)。
FO-MoEは、様々な専門家の専門知識を活用して、偏りのあるパッチの埋め込みをフィルタリングし、アンサンブルアプローチを使って特定のタスクに関連するより公平な情報を抽出するように設計されている。
FOLは、異なる属性間の距離を最小化するだけでなく、様々な属性の分布の分散の違いを最適化する、新しいフェアネス指向の損失関数である。
拡張実験は、Fair-MoEの有効性と公正性を実証した。
Harvard-FairVLMedデータセットでテストした結果、Fair-MoEは4つの属性の公正性と正確性の両方が改善された。
コードは公開されます。
関連論文リスト
- FairCLIP: Harnessing Fairness in Vision-Language Learning [20.743027598445796]
本稿では, 詳細な統計属性, 基盤ラベル, 臨床ノートを提供する, 視覚言語医学データセットについて紹介する。
この種の医療データセットとしては初めての公正なビジョン言語として、HarvardFairMedは、意識的かつ臨床的に有効な機械学習モデルの開発を触媒する可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-29T03:15:31Z) - Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。