論文の概要: Critical Appraisal of Fairness Metrics in Clinical Predictive AI
- arxiv url: http://arxiv.org/abs/2506.17035v1
- Date: Fri, 20 Jun 2025 14:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.487647
- Title: Critical Appraisal of Fairness Metrics in Clinical Predictive AI
- Title(参考訳): 臨床予測AIにおけるフェアネス指標の批判的評価
- Authors: João Matos, Ben Van Calster, Leo Anthony Celi, Paula Dhiman, Judy Wawira Gichoya, Richard D. Riley, Chris Russell, Sara Khalid, Gary S. Collins,
- Abstract要約: 我々は,臨床予測AIの公正度指標を同定し,批判的に評価するスコーピングレビューを行った。
我々は、モデルが個人または機密属性によって定義されたグループに対して(社会的に)差別するかどうかを定量化するための尺度として「公正計量」を定義した。
本研究は, 不確実性定量化, 交叉性, 実世界の応用性において, 公平性の定義と定量化, ギャップの特定における概念的課題を明らかにする。
- 参考スコア(独自算出の注目度): 7.452048646345057
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive artificial intelligence (AI) offers an opportunity to improve clinical practice and patient outcomes, but risks perpetuating biases if fairness is inadequately addressed. However, the definition of "fairness" remains unclear. We conducted a scoping review to identify and critically appraise fairness metrics for clinical predictive AI. We defined a "fairness metric" as a measure quantifying whether a model discriminates (societally) against individuals or groups defined by sensitive attributes. We searched five databases (2014-2024), screening 820 records, to include 41 studies, and extracted 62 fairness metrics. Metrics were classified by performance-dependency, model output level, and base performance metric, revealing a fragmented landscape with limited clinical validation and overreliance on threshold-dependent measures. Eighteen metrics were explicitly developed for healthcare, including only one clinical utility metric. Our findings highlight conceptual challenges in defining and quantifying fairness and identify gaps in uncertainty quantification, intersectionality, and real-world applicability. Future work should prioritise clinically meaningful metrics.
- Abstract(参考訳): 予測人工知能(AI)は、臨床実践と患者の成果を改善する機会を提供するが、公平性が不十分な場合、バイアスが持続するリスクがある。
しかし、「公正」の定義はいまだに不明である。
我々は,臨床予測AIの公正度指標を同定し,批判的に評価するスコーピングレビューを行った。
我々は、モデルが個人または機密属性によって定義されたグループに対して(社会的に)差別するかどうかを定量化するための尺度として「公正計量」を定義した。
我々は,5つのデータベース (2014-2024) を検索し,820レコードをスクリーニングし,41の研究では,62のフェアネス指標を抽出した。
指標は, 評価依存性, モデル出力レベル, 基本性能測定値で分類し, 臨床検証が限定され, しきい値に依存した測定値に対する過度な信頼感が認められた。
医療用として18の指標が明示的に開発され, 臨床効用指標は1つのみであった。
本研究は, 不確実性定量化, 交叉性, 実世界の応用性において, 公平性の定義と定量化, ギャップの特定における概念的課題を明らかにする。
今後の研究は臨床的に有意義な指標を優先すべきである。
関連論文リスト
- Performance evaluation of predictive AI models to support medical decisions: Overview and guidance [9.674673298809324]
本稿では,医療実践における予測AIモデルの有効性を検証する際に,古典的,現代的パフォーマンス指標のメリットを評価することを目的とする。
ここでは,5つのパフォーマンス領域(識別,校正,総合,分類,臨床ユーティリティ)を対象として,グラフィカルな評価を伴う32のパフォーマンス指標について論じる。
論文 参考訳(メタデータ) (2024-12-13T17:11:47Z) - Improving Patient Pre-screening for Clinical Trials: Assisting
Physicians with Large Language Models [0.0]
LLM(Large Language Models)は臨床情報抽出や臨床推論に有効であることが示されている。
本稿では,患者の総合的医療プロファイルに基づく臨床治験の適性判定に医師を支援するために,インストラクションGPTを用いることを検討した。
論文 参考訳(メタデータ) (2023-04-14T21:19:46Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Causal Fairness Assessment of Treatment Allocation with Electronic
Health Records [32.34816917662181]
本稿では,臨床意思決定における公平性を評価するための因果フェアネスアルゴリズムを提案する。
EHRデータベースから得られた冠動脈疾患の患者コホートに本枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-21T05:00:56Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。