論文の概要: Fairness in Medical Image Analysis and Healthcare: A Literature Survey
- arxiv url: http://arxiv.org/abs/2209.13177v6
- Date: Tue, 5 Dec 2023 07:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 20:43:20.857609
- Title: Fairness in Medical Image Analysis and Healthcare: A Literature Survey
- Title(参考訳): 医療画像分析と医療の公正性:文献調査
- Authors: Zikang Xu, Jun Li, Qingsong Yao, Han Li, S. Kevin Zhou
- Abstract要約: 医療画像分析(MedIA)と医療におけるフェアネス研究の現状を概観する。
具体的には、まず公平性の定義、不公平性の原因、潜在的な解について論じる。
次に,公平度評価と不公平度軽減によって分類されたMedIAの公正度に関する最近の研究について論じる。
- 参考スコア(独自算出の注目度): 31.77342958038514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning-enabled medical imaging analysis has become a vital part of
the automatic diagnosis system. However, machine learning, especially deep
learning models have been shown to demonstrate a systematic bias towards
certain subgroups of people. For instance, they yield a preferential predictive
performance to males over females, which is unfair and potentially harmful
especially in healthcare scenarios. In this literature survey, we give a
comprehensive review of the current progress of fairness studies in medical
image analysis (MedIA) and healthcare. Specifically, we first discuss the
definitions of fairness, the source of unfairness and potential solutions.
Then, we discuss current research on fairness for MedIA categorized by fairness
evaluation and unfairness mitigation. Furthermore, we conduct extensive
experiments to evaluate the fairness of different medical imaging tasks.
Finally, we discuss the challenges and future directions in developing fair
MedIA and healthcare applications
- Abstract(参考訳): 自動診断システムでは,機械学習を利用した医用画像解析が不可欠となっている。
しかし、機械学習、特にディープラーニングモデルは、特定のサブグループに対する体系的なバイアスを示すことが示されている。
例えば、女性よりも男性に優先的な予測能力を与え、特に医療シナリオでは不公平で潜在的に有害である。
本稿では,医療画像解析(media)と医療における公平性研究の現状について概観する。
具体的には、まず公平性の定義、不公平さの源泉、潜在的な解決策について論じる。
次に,公平度評価と不公平度軽減によって分類されたMedIAの公正度に関する最近の研究について論じる。
さらに,異なる医療画像タスクの公平性を評価するために,広範な実験を行った。
最後に、公正な医療アプリケーション開発における課題と今後の方向性について論じる。
関連論文リスト
- Learning Unbiased Image Segmentation: A Case Study with Plain Knee
Radiographs [0.4174498230885008]
本研究は, 身近な性別や人種的偏見を明らかにするために, 平易なX線写真を用いて, 深層学習による膝骨解剖の分類を再検討することを目的とする。
提案された緩和戦略は、性別と人種の偏見を緩和し、公平で偏見のないセグメンテーション結果を保証する。
論文 参考訳(メタデータ) (2023-08-08T16:01:11Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Towards unraveling calibration biases in medical image analysis [2.4054878434935074]
典型的に採用されるキャリブレーションの指標が,サンプルサイズに対して体系的に偏りがあることを示す。
これは、データ不均衡が人口構成群間で劇的なサンプルサイズ差をもたらすフェアネス研究に特に関係している。
論文 参考訳(メタデータ) (2023-05-09T00:11:35Z) - Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications [57.206139366029646]
医用画像解析における対人攻撃と防御の進歩に関する総合的な調査を報告する。
医療画像解析のための異なる種類の敵攻撃のための統一的理論的枠組みと防衛方法を提供する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - MEDFAIR: Benchmarking Fairness for Medical Imaging [44.73351338165214]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (2022-10-04T16:30:47Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。