論文の概要: Fairness in Medical Image Analysis and Healthcare: A Literature Survey
- arxiv url: http://arxiv.org/abs/2209.13177v6
- Date: Tue, 5 Dec 2023 07:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 20:43:20.857609
- Title: Fairness in Medical Image Analysis and Healthcare: A Literature Survey
- Title(参考訳): 医療画像分析と医療の公正性:文献調査
- Authors: Zikang Xu, Jun Li, Qingsong Yao, Han Li, S. Kevin Zhou
- Abstract要約: 医療画像分析(MedIA)と医療におけるフェアネス研究の現状を概観する。
具体的には、まず公平性の定義、不公平性の原因、潜在的な解について論じる。
次に,公平度評価と不公平度軽減によって分類されたMedIAの公正度に関する最近の研究について論じる。
- 参考スコア(独自算出の注目度): 31.77342958038514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning-enabled medical imaging analysis has become a vital part of
the automatic diagnosis system. However, machine learning, especially deep
learning models have been shown to demonstrate a systematic bias towards
certain subgroups of people. For instance, they yield a preferential predictive
performance to males over females, which is unfair and potentially harmful
especially in healthcare scenarios. In this literature survey, we give a
comprehensive review of the current progress of fairness studies in medical
image analysis (MedIA) and healthcare. Specifically, we first discuss the
definitions of fairness, the source of unfairness and potential solutions.
Then, we discuss current research on fairness for MedIA categorized by fairness
evaluation and unfairness mitigation. Furthermore, we conduct extensive
experiments to evaluate the fairness of different medical imaging tasks.
Finally, we discuss the challenges and future directions in developing fair
MedIA and healthcare applications
- Abstract(参考訳): 自動診断システムでは,機械学習を利用した医用画像解析が不可欠となっている。
しかし、機械学習、特にディープラーニングモデルは、特定のサブグループに対する体系的なバイアスを示すことが示されている。
例えば、女性よりも男性に優先的な予測能力を与え、特に医療シナリオでは不公平で潜在的に有害である。
本稿では,医療画像解析(media)と医療における公平性研究の現状について概観する。
具体的には、まず公平性の定義、不公平さの源泉、潜在的な解決策について論じる。
次に,公平度評価と不公平度軽減によって分類されたMedIAの公正度に関する最近の研究について論じる。
さらに,異なる医療画像タスクの公平性を評価するために,広範な実験を行った。
最後に、公正な医療アプリケーション開発における課題と今後の方向性について論じる。
関連論文リスト
- Exploring LLM-based Data Annotation Strategies for Medical Dialogue Preference Alignment [22.983780823136925]
本研究は、医療対話モデルを改善するために、AIフィードバック(RLAIF)技術を用いた強化学習(Reinforcement Learning)について検討する。
医療におけるRLAIF研究の主な課題は、自動評価手法の限界である。
標準化された患者診査に基づく新しい評価枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-05T10:29:19Z) - Open Challenges on Fairness of Artificial Intelligence in Medical Imaging Applications [3.8236840661885485]
この章ではまず、データ収集、モデルトレーニング、臨床展開など、さまざまなバイアス源について論じている。
そして、研究者や実践者からの注意を必要とすると信じているオープンな課題について議論する。
論文 参考訳(メタデータ) (2024-07-24T02:41:19Z) - A Toolbox for Surfacing Health Equity Harms and Biases in Large Language Models [20.11590976578911]
大規模言語モデル(LLM)は、複雑な健康情報のニーズを満たすことを約束すると同時に、健康格差を悪化させる可能性がある。
エクイティ関連モデル失敗の信頼性評価は、ヘルスエクイティを促進するシステムを開発するための重要なステップである。
医学的問題に対するLLMによる長期的回答において、株式関連害を生じさせる可能性のあるバイアスを克服するためのリソースと方法論を提示する。
論文 参考訳(メタデータ) (2024-03-18T17:56:37Z) - A Survey on Interpretable Cross-modal Reasoning [64.37362731950843]
マルチメディア分析から医療診断に至るまで、クロスモーダル推論(CMR)が重要な分野として浮上している。
この調査は、解釈可能なクロスモーダル推論(I-CMR)の領域を掘り下げる
本調査では,I-CMRの3段階分類法について概説する。
論文 参考訳(メタデータ) (2023-09-05T05:06:48Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Algorithm Fairness in AI for Medicine and Healthcare [4.626801344708786]
アルゴリズムの公平性は 公平なケアを提供する上で 難しい問題です
人種のサブ人口にまたがるAIモデルの最近の評価では、患者の診断、治療、医療費の請求などにおいて、大きな不平等が明らかになっている。
論文 参考訳(メタデータ) (2021-10-01T18:18:13Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。