論文の概要: Anterior's Approach to Fairness Evaluation of Automated Prior Authorization System
- arxiv url: http://arxiv.org/abs/2603.14631v1
- Date: Sun, 15 Mar 2026 22:05:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.926684
- Title: Anterior's Approach to Fairness Evaluation of Automated Prior Authorization System
- Title(参考訳): 自動事前認証システムの公平性評価に対する前者のアプローチ
- Authors: Sai P. Selvaraj, Khadija Mahmoud, Anuj Iravane,
- Abstract要約: 本稿では,承認結果ではなく,モデル誤り率に基づく事前承認モデルの公平性評価フレームワークを提案する。
7,166症例を対象に, 性別, 年齢, 人種・民族, 社会経済的地位の整合性を検討した。
- 参考スコア(独自算出の注目度): 0.10195618602298682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing staffing constraints and turnaround-time pressures in Prior authorization (PA) have led to increasing automation of decision systems to support PA review. Evaluating fairness in such systems poses unique challenges because legitimate clinical guidelines and medical necessity criteria often differ across demographic groups, making parity in approval rates an inappropriate fairness metric. We propose a fairness evaluation framework for prior authorization models based on model error rates rather than approval outcomes. Using 7,166 human-reviewed cases spanning 27 medical necessity guidelines, we assessed consistency in sex, age, race/ethnicity, and socioeconomic status. Our evaluation combined error-rate comparisons, tolerance-band analysis with a predefined $\pm$5 percentage-point margin, statistical power evaluation, and protocol-controlled logistic regression. Across most demographics, model error rates were consistent, and confidence intervals fell within the predefined tolerance band, indicating no meaningful performance differences. For race/ethnicity, point estimates remain small, but subgroup sample sizes were limited, resulting in wide confidence intervals and underpowered tests, with inconclusive evidence within the dataset we explored. These findings illustrate a rigorous and regulator-aligned approach to fairness evaluation in administrative healthcare AI systems.
- Abstract(参考訳): 事前承認(PA)における人員制限とターンアラウンドタイムプレッシャーの増大は、PAレビューをサポートするための意思決定システムの自動化に繋がった。
このようなシステムにおける公正性を評価することは、正当な臨床ガイドラインと医療必需基準が人口統計群によってしばしば異なるため、不適切な公正度尺度である。
本稿では,承認結果ではなく,モデル誤り率に基づく事前承認モデルの公平性評価フレームワークを提案する。
7,166症例を対象に, 性別, 年齢, 人種・民族, 社会経済的地位の整合性を検討した。
評価は, 誤り率比較, 許容帯域分析, 事前定義された$\pm$5パーセンテージマージン, 統計的パワー評価, プロトコル制御ロジスティック回帰を併用した。
ほとんどの人口層で、モデルエラー率は一貫しており、信頼区間は既定の許容範囲内に落ちており、有意義な性能差は示さなかった。
人種・民族にとって、点推定は依然として小さいが、サブグループのサンプルサイズは限られており、その結果、広範囲の信頼区間と過大な試験が行われ、調査したデータセット内では決定的な証拠が得られなかった。
これらの結果は、行政医療AIシステムにおける公平性評価に対する厳格かつ規制に整合したアプローチを示している。
関連論文リスト
- Empirical Likelihood-Based Fairness Auditing: Distribution-Free Certification and Flagging [18.71249153088185]
リシビズム予測や人事自動選択といった高度な応用における機械学習モデルは、しばしば体系的な性能格差を示す。
本稿では,モデル性能の相違に対する頑健な統計的尺度を構築するための実験的可能性ベース(EL)フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-28T05:36:19Z) - Understanding challenges to the interpretation of disaggregated evaluations of algorithmic fairness [49.35494016290887]
関係する人口を表わすが、実世界の格差を反映するデータである場合、サブグループ間での平等なパフォーマンスは、信頼できない公平さの尺度であることを示す。
本フレームワークでは, 因果関係の明示的な仮定と分析を相補して, 相反や分布変化の制御を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:40:31Z) - Fairness Perceptions in Regression-based Predictive Models [0.19999259391104385]
本稿では, 回帰分析ツールの妥当性を評価するために, 分散に基づくグループフェアネスの概念を3つ導入する。
群衆のフィードバックは、社会的公平さの選好を推定するために使用される。
本研究は, 男女・人種群に対して, 年齢群では不公平ではあるが, 性別・人種群では公平であると考えられた。
論文 参考訳(メタデータ) (2025-05-08T01:48:27Z) - Conformal uncertainty quantification to evaluate predictive fairness of foundation AI model for skin lesion classes across patient demographics [8.692647930497936]
我々は、コンフォメーション解析を用いて、視覚変換器に基づく基礎モデルの予測不確かさを定量化する。
基礎モデルの特徴埋め込みの堅牢性を評価するために、公正度測定としてどのように使用できるかを示す。
論文 参考訳(メタデータ) (2025-03-31T08:06:00Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。