論文の概要: Critical Appraisal of Fairness Metrics in Clinical Predictive AI
- arxiv url: http://arxiv.org/abs/2506.17035v1
- Date: Fri, 20 Jun 2025 14:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.487647
- Title: Critical Appraisal of Fairness Metrics in Clinical Predictive AI
- Title(参考訳): 臨床予測AIにおけるフェアネス指標の批判的評価
- Authors: João Matos, Ben Van Calster, Leo Anthony Celi, Paula Dhiman, Judy Wawira Gichoya, Richard D. Riley, Chris Russell, Sara Khalid, Gary S. Collins,
- Abstract要約: 我々は,臨床予測AIの公正度指標を同定し,批判的に評価するスコーピングレビューを行った。
我々は、モデルが個人または機密属性によって定義されたグループに対して(社会的に)差別するかどうかを定量化するための尺度として「公正計量」を定義した。
本研究は, 不確実性定量化, 交叉性, 実世界の応用性において, 公平性の定義と定量化, ギャップの特定における概念的課題を明らかにする。
- 参考スコア(独自算出の注目度): 7.452048646345057
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive artificial intelligence (AI) offers an opportunity to improve clinical practice and patient outcomes, but risks perpetuating biases if fairness is inadequately addressed. However, the definition of "fairness" remains unclear. We conducted a scoping review to identify and critically appraise fairness metrics for clinical predictive AI. We defined a "fairness metric" as a measure quantifying whether a model discriminates (societally) against individuals or groups defined by sensitive attributes. We searched five databases (2014-2024), screening 820 records, to include 41 studies, and extracted 62 fairness metrics. Metrics were classified by performance-dependency, model output level, and base performance metric, revealing a fragmented landscape with limited clinical validation and overreliance on threshold-dependent measures. Eighteen metrics were explicitly developed for healthcare, including only one clinical utility metric. Our findings highlight conceptual challenges in defining and quantifying fairness and identify gaps in uncertainty quantification, intersectionality, and real-world applicability. Future work should prioritise clinically meaningful metrics.
- Abstract(参考訳): 予測人工知能(AI)は、臨床実践と患者の成果を改善する機会を提供するが、公平性が不十分な場合、バイアスが持続するリスクがある。
しかし、「公正」の定義はいまだに不明である。
我々は,臨床予測AIの公正度指標を同定し,批判的に評価するスコーピングレビューを行った。
我々は、モデルが個人または機密属性によって定義されたグループに対して(社会的に)差別するかどうかを定量化するための尺度として「公正計量」を定義した。
我々は,5つのデータベース (2014-2024) を検索し,820レコードをスクリーニングし,41の研究では,62のフェアネス指標を抽出した。
指標は, 評価依存性, モデル出力レベル, 基本性能測定値で分類し, 臨床検証が限定され, しきい値に依存した測定値に対する過度な信頼感が認められた。
医療用として18の指標が明示的に開発され, 臨床効用指標は1つのみであった。
本研究は, 不確実性定量化, 交叉性, 実世界の応用性において, 公平性の定義と定量化, ギャップの特定における概念的課題を明らかにする。
今後の研究は臨床的に有意義な指標を優先すべきである。
関連論文リスト
- Performance evaluation of predictive AI models to support medical decisions: Overview and guidance [9.674673298809324]
本稿では,医療実践における予測AIモデルの有効性を検証する際に,古典的,現代的パフォーマンス指標のメリットを評価することを目的とする。
ここでは,5つのパフォーマンス領域(識別,校正,総合,分類,臨床ユーティリティ)を対象として,グラフィカルな評価を伴う32のパフォーマンス指標について論じる。
論文 参考訳(メタデータ) (2024-12-13T17:11:47Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Improving Patient Pre-screening for Clinical Trials: Assisting
Physicians with Large Language Models [0.0]
LLM(Large Language Models)は臨床情報抽出や臨床推論に有効であることが示されている。
本稿では,患者の総合的医療プロファイルに基づく臨床治験の適性判定に医師を支援するために,インストラクションGPTを用いることを検討した。
論文 参考訳(メタデータ) (2023-04-14T21:19:46Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Causal Fairness Assessment of Treatment Allocation with Electronic
Health Records [32.34816917662181]
本稿では,臨床意思決定における公平性を評価するための因果フェアネスアルゴリズムを提案する。
EHRデータベースから得られた冠動脈疾患の患者コホートに本枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-21T05:00:56Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Evaluating subgroup disparity using epistemic uncertainty in mammography [3.045076250501715]
本研究では,乳房密度評価のための患者集団(人種)とデータ取得サブグループにおける不確実性の評価について検討する。
その結果,集合的性能が同等であっても,不確実な計量量化の選択はサブグループレベルを著しく向上させることができることがわかった。
この分析が、臨床展開のための機械学習アプリケーションの透明性を高めるために、不確実性をどのように活用できるか、さらなる研究を促進することを願っている。
論文 参考訳(メタデータ) (2021-07-06T16:36:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - An Empirical Characterization of Fair Machine Learning For Clinical Risk
Prediction [7.945729033499554]
臨床的意思決定を導くための機械学習の使用は、既存の健康格差を悪化させる可能性がある。
近年のいくつかの研究は、この問題をアルゴリズム的公正(英語版)の問題と位置づけている。
我々は,グループフェアネス違反の罰則がモデル性能とグループフェアネスの一連の尺度に与える影響を実験的に評価する。
論文 参考訳(メタデータ) (2020-07-20T17:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。