論文の概要: FairCLIP: Harnessing Fairness in Vision-Language Learning
- arxiv url: http://arxiv.org/abs/2403.19949v2
- Date: Fri, 5 Apr 2024 20:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 00:16:23.902164
- Title: FairCLIP: Harnessing Fairness in Vision-Language Learning
- Title(参考訳): FairCLIP:ビジョンランゲージ学習における公平さ
- Authors: Yan Luo, Min Shi, Muhammad Osama Khan, Muhammad Muneeb Afzal, Hao Huang, Shuaihang Yuan, Yu Tian, Luo Song, Ava Kouhana, Tobias Elze, Yi Fang, Mengyu Wang,
- Abstract要約: 本稿では, 詳細な統計属性, 基盤ラベル, 臨床ノートを提供する, 視覚言語医学データセットについて紹介する。
この種の医療データセットとしては初めての公正なビジョン言語として、HarvardFairMedは、意識的かつ臨床的に有効な機械学習モデルの開発を触媒する可能性を秘めている。
- 参考スコア(独自算出の注目度): 20.743027598445796
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fairness is a critical concern in deep learning, especially in healthcare, where these models influence diagnoses and treatment decisions. Although fairness has been investigated in the vision-only domain, the fairness of medical vision-language (VL) models remains unexplored due to the scarcity of medical VL datasets for studying fairness. To bridge this research gap, we introduce the first fair vision-language medical dataset Harvard-FairVLMed that provides detailed demographic attributes, ground-truth labels, and clinical notes to facilitate an in-depth examination of fairness within VL foundation models. Using Harvard-FairVLMed, we conduct a comprehensive fairness analysis of two widely-used VL models (CLIP and BLIP2), pre-trained on both natural and medical domains, across four different protected attributes. Our results highlight significant biases in all VL models, with Asian, Male, Non-Hispanic, and Spanish being the preferred subgroups across the protected attributes of race, gender, ethnicity, and language, respectively. In order to alleviate these biases, we propose FairCLIP, an optimal-transport-based approach that achieves a favorable trade-off between performance and fairness by reducing the Sinkhorn distance between the overall sample distribution and the distributions corresponding to each demographic group. As the first VL dataset of its kind, Harvard-FairVLMed holds the potential to catalyze advancements in the development of machine learning models that are both ethically aware and clinically effective. Our dataset and code are available at https://ophai.hms.harvard.edu/datasets/harvard-fairvlmed10k.
- Abstract(参考訳): 公平性は、ディープラーニング、特に医療において重要な関心事であり、これらのモデルが診断や治療決定に影響を及ぼす。
視覚のみの領域ではフェアネスが研究されているが、医療用視覚言語(VL)モデルのフェアネスは、フェアネスを研究するための医療用VLデータセットが不足しているため、未探索のままである。
この研究ギャップを埋めるために、VLファンデーションモデル内でのフェアネスの詳細な検証を容易にするために、詳細な人口統計特性、地味ラベル、臨床ノートを提供する最初のフェアビジョン言語医療データセットであるHarvard-FairVLMedを導入する。
Harvard-FairVLMedを用いて、4つの異なる保護属性に対して、自然ドメインと医療ドメインの両方で事前訓練された2つの広く使用されているVLモデル(CLIPとBLIP2)の総合的公正性分析を行う。
以上の結果から,アジア,男性,非ヒスパニック,スペインがそれぞれ,人種,性別,民族,言語という保護された属性のサブグループとして好まれる,すべてのVLモデルに有意な偏見が認められた。
これらのバイアスを軽減するために,各人口集団に対応する分布とサンプル分布とのシンクホーン距離を削減し,性能と公平性の良好なトレードオフを実現するための,最適輸送に基づくFairCLIPを提案する。
この種の最初のVLデータセットとして、Harvard-FairVLMedは、倫理的に認識され、臨床的に有効である機械学習モデルの開発における進歩を触媒する可能性を秘めている。
私たちのデータセットとコードはhttps://ophai.hms.harvard.edu/datasets/harvard-fairvlmed10kで公開されています。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Cross-Care: Assessing the Healthcare Implications of Pre-training Data on Language Model Bias [3.455189439319919]
大規模な言語モデル(LLM)におけるバイアスと実世界の知識を評価するための最初のベンチマークフレームワークであるCross-Careを紹介する。
ThePile$のような事前学習コーパスに埋め込まれた人口統計バイアスがLLMの出力にどのように影響するかを評価する。
以上の結果から, LLMの病状有病率と, 集団間での実際の病状有病率との相違が明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T02:33:14Z) - What Are We Measuring When We Evaluate Large Vision-Language Models? An Analysis of Latent Factors and Biases [87.65903426052155]
データから潜在視覚言語スキルの発見を目的とした大規模な移動学習実験を行った。
生成タスクが長さバイアスに悩まされることを示し、ベンチマークは出力長の異なるタスクのバランスをとるべきであることを示唆する。
我々は新しいデータセットOLIVEを提示し、そこでユーザーの指示をシミュレーションし、テストしたすべてのデータセットと異なる課題を提示します。
論文 参考訳(メタデータ) (2024-04-03T02:40:35Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - FairSeg: A Large-Scale Medical Image Segmentation Dataset for Fairness Learning Using Segment Anything Model with Fair Error-Bound Scaling [14.483954095650887]
フェアネス学習研究を促進するためには、高品質な医療フェアネスデータセットが必要である。
既存の医療フェアネスデータセットはすべて分類タスク用であり、医療セグメント化にはフェアネスデータセットが使用できない。
我々は,1万件の被験者を対象とし,HarvardFairSegという医療セグメント化のための最初のフェアネスデータセットを提案する。
論文 参考訳(メタデータ) (2023-11-03T18:44:21Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Harvard Glaucoma Fairness: A Retinal Nerve Disease Dataset for Fairness
Learning and Fair Identity Normalization [13.792327874980632]
緑内障検出のための2次元および3次元データイメージングと人種的バランスの取れたデータセットであるHarvard-GF(Harvard Glaucoma Fairness)を紹介する。
我々のFINアプローチは、人種、性別、フェアネスタスクにおいて優れたパフォーマンスを持つ最先端のフェアネス学習手法と比較される。
フェアネスの文脈で、あらゆる種類のパフォーマンス指標を比較するのに柔軟に使用できる、エクイティスケールのパフォーマンス指標を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:39:05Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。