論文の概要: FairLens: Auditing Black-box Clinical Decision Support Systems
- arxiv url: http://arxiv.org/abs/2011.04049v1
- Date: Sun, 8 Nov 2020 18:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:09:03.692232
- Title: FairLens: Auditing Black-box Clinical Decision Support Systems
- Title(参考訳): FairLens:ブラックボックスの臨床診断支援システムの検討
- Authors: Cecilia Panigutti, Alan Perotti, Andr\`e Panisson, Paolo Bajardi and
Dino Pedreschi
- Abstract要約: バイアスの発見と説明のための方法論であるFairLensを紹介します。
臨床診断支援システムとして機能する架空の商用ブラックボックスモデルを評価するために,我々のツールをどのように利用できるかを示す。
- 参考スコア(独自算出の注目度): 1.9634272907216734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pervasive application of algorithmic decision-making is raising concerns
on the risk of unintended bias in AI systems deployed in critical settings such
as healthcare. The detection and mitigation of biased models is a very delicate
task which should be tackled with care and involving domain experts in the
loop. In this paper we introduce FairLens, a methodology for discovering and
explaining biases. We show how our tool can be used to audit a fictional
commercial black-box model acting as a clinical decision support system. In
this scenario, the healthcare facility experts can use FairLens on their own
historical data to discover the model's biases before incorporating it into the
clinical decision flow. FairLens first stratifies the available patient data
according to attributes such as age, ethnicity, gender and insurance; it then
assesses the model performance on such subgroups of patients identifying those
in need of expert evaluation. Finally, building on recent state-of-the-art XAI
(eXplainable Artificial Intelligence) techniques, FairLens explains which
elements in patients' clinical history drive the model error in the selected
subgroup. Therefore, FairLens allows experts to investigate whether to trust
the model and to spotlight group-specific biases that might constitute
potential fairness issues.
- Abstract(参考訳): アルゴリズムによる意思決定の広範にわたる適用は、医療などの重要な設定にデプロイされたaiシステムの意図しないバイアスのリスクに懸念を提起している。
バイアスのあるモデルの検出と緩和は、注意と、ループにドメインの専門家を巻き込まなければならない非常にデリケートなタスクです。
本稿では,バイアスの発見と説明のための方法論であるFairLensを紹介する。
本手法は, 臨床意思決定支援システムとして機能する架空の商用ブラックボックスモデルの監査に利用できることを示す。
このシナリオでは、医療施設の専門家はfairlensを自身の履歴データに使用して、臨床判断フローに組み込む前にモデルのバイアスを検出することができる。
FairLensはまず、年齢、民族、性別、保険などの属性に基づいて患者データを階層化し、その後、専門家評価が必要な患者を識別するサブグループにおけるモデルパフォーマンスを評価する。
最後にfairlens氏は、最新の最先端のxai(explainable artificial intelligence)技術に基づいて、患者の臨床履歴のどの要素が選択されたサブグループでモデルエラーを引き起こすかを説明している。
したがって、FairLensでは、モデルの信頼性と、潜在的公正性問題を構成する可能性のあるグループ固有の偏見を調査することができる。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging [13.141767097232796]
自己監督型視覚言語基盤モデルは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出することができる。
これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
本研究では,5つのグローバルソースデータセットを対象とした胸部X線診断における最先端の視覚言語基盤モデルのアルゴリズム的公正性について検討した。
論文 参考訳(メタデータ) (2024-02-22T18:59:53Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。