論文の概要: Navigating Fairness in Radiology AI: Concepts, Consequences,and Crucial
Considerations
- arxiv url: http://arxiv.org/abs/2306.01333v1
- Date: Fri, 2 Jun 2023 07:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 16:12:28.046268
- Title: Navigating Fairness in Radiology AI: Concepts, Consequences,and Crucial
Considerations
- Title(参考訳): 放射線医学aiにおける公平をナビゲートする:概念、結果、そして重要な考察
- Authors: Vasantha Kumar Venugopal, Abhishek Gupta, Rohit Takhar, Charlene Liew
Jin Yee, Catherine Jones, Gilberto Szarf
- Abstract要約: レビューでは、Aequitasツールキットを用いたバイアス監査と、放射線学における実際の影響に焦点を当てている。
オープンソースのバイアス監査ツールキットであるAequitasは、AIモデルの判断を精査し、多様性をもたらす可能性のある隠れバイアスを特定する。
本研究は, 疾患スクリーニング設定におけるそれらの関連性を示す仮説的シナリオと, 相違が現実世界の重大な影響をいかに引き起こすかを示す。
- 参考スコア(独自算出の注目度): 5.263957835028345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has significantly revolutionized radiology,
promising improved patient outcomes and streamlined processes. However, it's
critical to ensure the fairness of AI models to prevent stealthy bias and
disparities from leading to unequal outcomes. This review discusses the concept
of fairness in AI, focusing on bias auditing using the Aequitas toolkit, and
its real-world implications in radiology, particularly in disease screening
scenarios. Aequitas, an open-source bias audit toolkit, scrutinizes AI models'
decisions, identifying hidden biases that may result in disparities across
different demographic groups and imaging equipment brands. This toolkit
operates on statistical theories, analyzing a large dataset to reveal a model's
fairness. It excels in its versatility to handle various variables
simultaneously, especially in a field as diverse as radiology. The review
explicates essential fairness metrics: Equal and Proportional Parity, False
Positive Rate Parity, False Discovery Rate Parity, False Negative Rate Parity,
and False Omission Rate Parity. Each metric serves unique purposes and offers
different insights. We present hypothetical scenarios to demonstrate their
relevance in disease screening settings, and how disparities can lead to
significant real-world impacts.
- Abstract(参考訳): 人工知能(AI)は放射線学に大きな革命をもたらし、患者の成果とプロセスの合理化を約束している。
しかし、ステルスバイアスや格差が不平等な結果につながるのを防ぐために、AIモデルの公平性を確保することが重要です。
本稿では,aiにおける公平性の概念について論じ,aequitasツールキットを用いたバイアス監査と,その放射線学的意義,特に疾患スクリーニングシナリオに焦点をあてた。
オープンソースのバイアス監査ツールキットであるaequitasは、aiモデルの判断を精査し、異なる人口統計グループとイメージング機器ブランド間で異なる結果をもたらす隠れたバイアスを特定する。
このツールキットは統計理論に基づいており、大きなデータセットを分析してモデルの公平性を明らかにする。
様々な変数を同時に扱う汎用性、特に放射線学と同じくらい多様な分野において優れている。
このレビューは、等しく比例するパリティ、偽陽性率パリティ、偽発見率パリティ、偽陰性率パリティ、偽陰性率パリティといった、本質的な公平性指標を解説している。
各計量は独自の目的を持ち、異なる洞察を提供する。
本研究は, 疾患スクリーニング設定におけるそれらの関連性を示す仮説的シナリオと, 相違が現実世界の重大な影響をいかに引き起こすかを示す。
関連論文リスト
- D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Explaining medical AI performance disparities across sites with
confounder Shapley value analysis [8.785345834486057]
マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
論文 参考訳(メタデータ) (2021-11-12T18:54:10Z) - Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups [17.415882865534638]
機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
論文 参考訳(メタデータ) (2021-10-27T20:30:57Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Statistical Exploration of Relationships Between Routine and Agnostic
Features Towards Interpretable Risk Characterization [0.0]
臨床的実装のための予後モデルをどのように解釈するか?
放射能特徴集合内の潜在的な情報構造をどうやって特定できるのか?
そして、どのようにして機能間の潜在的な関係を再結合または活用して、解釈可能性を改善することができるのか?
論文 参考訳(メタデータ) (2020-01-28T14:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。