論文の概要: Two-step adversarial debiasing with partial learning -- medical image
case-studies
- arxiv url: http://arxiv.org/abs/2111.08711v1
- Date: Tue, 16 Nov 2021 15:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 03:04:18.234860
- Title: Two-step adversarial debiasing with partial learning -- medical image
case-studies
- Title(参考訳): 部分学習による二段階逆バイアス-医療画像の事例-
- Authors: Ramon Correa, Jiwoong Jason Jeong, Bhavik Patel, Hari Trivedi, Judy W.
Gichoya, Imon Banerjee
- Abstract要約: 対象タスクのパフォーマンスを保ちながら、人種的格差を低減できる部分学習を用いた2段階の逆脱バイアス手法を開発した。
この手法は胸部X線とマンモグラフィーの2つの独立した医療画像ケーススタディで評価され、対象のパフォーマンスを維持しながらバイアス低減の可能性を示唆した。
- 参考スコア(独自算出の注目度): 2.585317375872136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of artificial intelligence (AI) in healthcare has become a very
active research area in the last few years. While significant progress has been
made in image classification tasks, only a few AI methods are actually being
deployed in hospitals. A major hurdle in actively using clinical AI models
currently is the trustworthiness of these models. More often than not, these
complex models are black boxes in which promising results are generated.
However, when scrutinized, these models begin to reveal implicit biases during
the decision making, such as detecting race and having bias towards ethnic
groups and subpopulations. In our ongoing study, we develop a two-step
adversarial debiasing approach with partial learning that can reduce the racial
disparity while preserving the performance of the targeted task. The
methodology has been evaluated on two independent medical image case-studies -
chest X-ray and mammograms, and showed promises in bias reduction while
preserving the targeted performance.
- Abstract(参考訳): 医療における人工知能(AI)の利用は、ここ数年で非常に活発な研究領域となっている。
画像分類タスクでは大きな進歩があったが、実際に病院に配備されているAIメソッドはわずかである。
現在、臨床AIモデルを積極的に使用する上で大きなハードルは、これらのモデルの信頼性である。
多くの場合、これらの複雑なモデルは、有望な結果が生成されるブラックボックスである。
しかし、これらのモデルが精査されると、人種の検出や民族集団への偏り、亜集団への偏りなど、意思決定中の暗黙のバイアスが明らかになる。
本研究は,対象タスクのパフォーマンスを保ちながら,人種的格差を低減できる部分学習を用いた2段階の対逆脱バイアス手法の開発である。
本手法は,X線検査とマンモグラム検査の2つの独立した医療画像で評価され,目標性能を維持しつつバイアス低減の可能性を示唆した。
関連論文リスト
- More Than Positive and Negative: Communicating Fine Granularity in Medical Diagnosis [26.199151646318246]
医用画像からの微粒化学習に関する新しいベンチマークを提案する。
具体的には,医学的知識に基づく分類法を考案し,正の症例を非典型的陽性と典型的陽性の2つのサブカテゴリに分けた。
また、トレーニングにおいて粗いラベルのみを用いることで、この問題に対する簡易なリスク変調手法を提案する。
論文 参考訳(メタデータ) (2024-08-05T03:33:00Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Towards unraveling calibration biases in medical image analysis [2.4054878434935074]
典型的に採用されるキャリブレーションの指標が,サンプルサイズに対して体系的に偏りがあることを示す。
これは、データ不均衡が人口構成群間で劇的なサンプルサイズ差をもたらすフェアネス研究に特に関係している。
論文 参考訳(メタデータ) (2023-05-09T00:11:35Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups [17.415882865534638]
機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
論文 参考訳(メタデータ) (2021-10-27T20:30:57Z) - Reading Race: AI Recognises Patient's Racial Identity In Medical Images [9.287449389763413]
画像の解釈を行う人間の専門家にとって明らかな、医療画像における人種の相関関係は知られていない。
標準的なディープラーニングモデルは、複数の画像モダリティにまたがる高性能な医療画像から競合を予測するためにトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-21T21:10:16Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。