論文の概要: (Un)fairness in Post-operative Complication Prediction Models
- arxiv url: http://arxiv.org/abs/2011.02036v1
- Date: Tue, 3 Nov 2020 22:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:58:04.421330
- Title: (Un)fairness in Post-operative Complication Prediction Models
- Title(参考訳): 術後合併症予測モデルにおける(un)fairness
- Authors: Sandhya Tripathi, Bradley A. Fritz, Mohamed Abdelhack, Michael S.
Avidan, Yixin Chen, Christopher R. King
- Abstract要約: 手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
- 参考スコア(独自算出の注目度): 20.16366948502659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the current ongoing debate about fairness, explainability and
transparency of machine learning models, their application in high-impact
clinical decision-making systems must be scrutinized. We consider a real-life
example of risk estimation before surgery and investigate the potential for
bias or unfairness of a variety of algorithms. Our approach creates transparent
documentation of potential bias so that the users can apply the model
carefully. We augment a model-card like analysis using propensity scores with a
decision-tree based guide for clinicians that would identify predictable
shortcomings of the model. In addition to functioning as a guide for users, we
propose that it can guide the algorithm development and informatics team to
focus on data sources and structures that can address these shortcomings.
- Abstract(参考訳): 現在進行中の機械学習モデルの公平性、説明可能性、透明性に関する議論では、ハイインパクトな臨床意思決定システムへの応用を精査する必要がある。
手術前のリスク推定の実生活例を考察し,様々なアルゴリズムのバイアスや不公平性の可能性について検討する。
我々のアプローチは潜在的なバイアスの透明なドキュメントを作成し、ユーザがモデルを慎重に適用できるようにします。
我々は,モデルの予測的欠点を識別するクリニックのための決定木に基づくガイドを用いて,確率スコアを用いたモデルカードのような分析を増強する。
ユーザのためのガイドとしての機能に加えて,これらの問題点に対処可能なデータソースや構造に重点を置くために,アルゴリズム開発と情報処理チームを指導することを提案する。
関連論文リスト
- Assisting clinical practice with fuzzy probabilistic decision trees [2.0999441362198907]
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
論文 参考訳(メタデータ) (2023-04-16T14:05:16Z) - Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision [12.306688233127312]
本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
論文 参考訳(メタデータ) (2023-03-02T01:02:18Z) - Against Algorithmic Exploitation of Human Vulnerabilities [2.6918074738262194]
我々は、機械学習モデルが故意に脆弱性をモデル化することを懸念している。
一般的な脆弱性を記述し、アルゴリズムによる意思決定においてそれらが役割を担っている可能性を示す。
本稿では,脆弱性モデリングの可能性を検出する手法の一連の要件を提案する。
論文 参考訳(メタデータ) (2023-01-12T13:15:24Z) - Fair Conformal Predictors for Applications in Medical Imaging [4.236384785644418]
コンフォーマルな手法は、モデル不確実性を臨床的に直感的に表現する方法を提供することで、ディープラーニングモデルを補完することができる。
マンモグラフィー乳房密度と皮膚写真データセットを用いて実験を行い, コンフォメーション予測の有用性を実証した。
コンフォメーション予測器は, 人種や肌の色調などの患者層に対して, カバー範囲の等化に有効であることがわかった。
論文 参考訳(メタデータ) (2021-09-09T16:31:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - FairLens: Auditing Black-box Clinical Decision Support Systems [1.9634272907216734]
バイアスの発見と説明のための方法論であるFairLensを紹介します。
臨床診断支援システムとして機能する架空の商用ブラックボックスモデルを評価するために,我々のツールをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-08T18:40:50Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。