論文の概要: Surgeons Are Indian Males and Speech Therapists Are White Females: Auditing Biases in Vision-Language Models for Healthcare Professionals
- arxiv url: http://arxiv.org/abs/2510.06280v1
- Date: Mon, 06 Oct 2025 20:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.093832
- Title: Surgeons Are Indian Males and Speech Therapists Are White Females: Auditing Biases in Vision-Language Models for Healthcare Professionals
- Title(参考訳): インド人男性とスピーチセラピストは白人女性:医療専門家のための視覚・言語モデルにおける偏見
- Authors: Zohaib Hasan Siddiqui, Dayam Nadeem, Mohammad Masudur Rahman, Mohammad Nadeem, Shahab Saquib Sohail, Beenish Moalla Chaudhry,
- Abstract要約: 本稿では、関連するバイアスを定量化し、その運用リスクを評価する医療環境評価プロトコルを提案する。
私たちの研究は、AIを活用した雇用や従業員分析が、株式、コンプライアンス、患者の信頼に下流に影響を及ぼす可能性があるとして、医療などの重要な領域におけるバイアス識別の重要性を強調しています。
- 参考スコア(独自算出の注目度): 5.537368578191907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision language models (VLMs), such as CLIP and OpenCLIP, can encode and reflect stereotypical associations between medical professions and demographic attributes learned from web-scale data. We present an evaluation protocol for healthcare settings that quantifies associated biases and assesses their operational risk. Our methodology (i) defines a taxonomy spanning clinicians and allied healthcare roles (e.g., surgeon, cardiologist, dentist, nurse, pharmacist, technician), (ii) curates a profession-aware prompt suite to probe model behavior, and (iii) benchmarks demographic skew against a balanced face corpus. Empirically, we observe consistent demographic biases across multiple roles and vision models. Our work highlights the importance of bias identification in critical domains such as healthcare as AI-enabled hiring and workforce analytics can have downstream implications for equity, compliance, and patient trust.
- Abstract(参考訳): CLIPやOpenCLIPのような視覚言語モデル(VLM)は、医療専門家とWebスケールデータから得られた人口統計学的属性のステレオタイプ的関連を符号化し、反映することができる。
本稿では、関連するバイアスを定量化し、その運用リスクを評価する医療環境評価プロトコルを提案する。
私たちの方法論
(i)臨床医と提携医療(例えば、外科医、心臓科医、歯科医、看護師、薬剤師、技術者)にまたがる分類を定める。
(二)モデル行動の調査を行う専門知識のあるプロンプトスイートをキュレートし、
(iii) バランスの取れた顔のコーパスに対して、人口統計のスキューをベンチマークする。
経験的に、複数の役割とビジョンモデルにまたがる一貫した人口統計バイアスを観察する。
私たちの研究は、AIを活用した雇用や従業員分析が、株式、コンプライアンス、患者の信頼に下流に影響を及ぼす可能性があるとして、医療などの重要な領域におけるバイアス識別の重要性を強調しています。
関連論文リスト
- Encoding Inequity: Examining Demographic Bias in LLM-Driven Robot Caregiving [0.0]
大規模言語モデル(LLM)は、ロボットの振る舞い、スピーチ、意思決定を形作る上で重要な要素である。
本稿では, LLM が生成する応答が, 異なる人口統計情報を用いて, ロボットの介護特性と責任をいかに形成するかを検討する。
対象は、障害と年齢、障害に対する感情の低下、LGBTQ+のアイデンティティ、介護物語におけるステレオタイプを補強する異なるクラスタリングパターンである。
論文 参考訳(メタデータ) (2025-02-24T17:28:39Z) - A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging [13.141767097232796]
自己監督型視覚言語基盤モデルは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出することができる。
これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
本研究では,5つのグローバルソースデータセットを対象とした胸部X線診断における最先端の視覚言語基盤モデルのアルゴリズム的公正性について検討した。
論文 参考訳(メタデータ) (2024-02-22T18:59:53Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction [47.999621481852266]
タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-29T13:04:02Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。