論文の概要: Inspecting Model Fairness in Ultrasound Segmentation Tasks
- arxiv url: http://arxiv.org/abs/2312.02501v1
- Date: Tue, 5 Dec 2023 05:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:37:26.917087
- Title: Inspecting Model Fairness in Ultrasound Segmentation Tasks
- Title(参考訳): 超音波分割作業におけるモデルフェアネスの検査
- Authors: Zikang Xu, Fenghe Tang, Quan Quan, Jianrui Ding, Chunping Ning, S.
Kevin Zhou
- Abstract要約: 2つの超音波データセットを用いて,一連の深層学習(DL)セグメンテーションモデルについて検討する。
以上の結果から,最先端のDLアルゴリズムでさえ,超音波セグメンテーション作業において不公平な動作を示すことが明らかとなった。
これらの結果は重要な警告として機能し、実際のシナリオに展開する前に、慎重にモデル評価を行う必要性を強調します。
- 参考スコア(独自算出の注目度): 20.281029492841878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid expansion of machine learning and deep learning (DL),
researchers are increasingly employing learning-based algorithms to alleviate
diagnostic challenges across diverse medical tasks and applications. While
advancements in diagnostic precision are notable, some researchers have
identified a concerning trend: their models exhibit biased performance across
subgroups characterized by different sensitive attributes. This bias not only
infringes upon the rights of patients but also has the potential to lead to
life-altering consequences. In this paper, we inspect a series of DL
segmentation models using two ultrasound datasets, aiming to assess the
presence of model unfairness in these specific tasks. Our findings reveal that
even state-of-the-art DL algorithms demonstrate unfair behavior in ultrasound
segmentation tasks. These results serve as a crucial warning, underscoring the
necessity for careful model evaluation before their deployment in real-world
scenarios. Such assessments are imperative to ensure ethical considerations and
mitigate the risk of adverse impacts on patient outcomes.
- Abstract(参考訳): 機械学習とディープラーニング(DL)の急速な拡大に伴い、研究者たちは、さまざまな医療タスクやアプリケーションにおける診断の課題を軽減するために、学習ベースのアルゴリズムをますます活用している。
診断精度の進歩は注目に値するが、一部の研究者は関連する傾向を特定している。
このバイアスは患者の権利を侵害するだけでなく、人生を変える結果をもたらす可能性がある。
本稿では,2つの超音波データセットを用いたdlセグメンテーションモデルの検討を行い,これらの課題におけるモデル不公平性を評価することを目的とした。
その結果,最先端のDLアルゴリズムでさえ,超音波セグメンテーション作業において不公平な動作を示すことがわかった。
これらの結果は、実世界のシナリオにデプロイする前に注意深くモデルを評価する必要性を強調する重要な警告となる。
このような評価は、倫理的考慮の確保と患者の予後に悪影響を及ぼすリスクの軽減に不可欠である。
関連論文リスト
- Weakly supervised deep learning model with size constraint for prostate cancer detection in multiparametric MRI and generalization to unseen domains [0.90668179713299]
本モデルでは, 完全教師付きベースラインモデルにより, オンパー性能が向上することを示す。
また、未確認データドメインでテストした場合、完全に教師付きモデルと弱い教師付きモデルの両方のパフォーマンス低下も観察する。
論文 参考訳(メタデータ) (2024-11-04T12:24:33Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Leveraging Semi-Supervised Graph Learning for Enhanced Diabetic
Retinopathy Detection [0.0]
糖尿病網膜症(DR: Diabetic Retinopathy)は、早期発見と治療の急激な必要性を浮き彫りにしている。
機械学習(ML)技術の最近の進歩は、DR検出における将来性を示しているが、ラベル付きデータの可用性は、しばしばパフォーマンスを制限している。
本研究では,DR検出に適したSemi-Supervised Graph Learning SSGLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-02T04:42:08Z) - Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study [0.9142067094647588]
本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
論文 参考訳(メタデータ) (2023-08-04T23:51:47Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Evaluating the Fairness of Deep Learning Uncertainty Estimates in
Medical Image Analysis [3.5536769591744557]
深層学習(DL)モデルは多くの医療画像解析タスクで大きな成功を収めている。
しかし、結果として得られたモデルを実際の臨床状況に展開するには、異なるサブ集団間での堅牢性と公平性が必要である。
近年の研究では、人口統計学的サブグループにまたがるDLモデルに有意なバイアスが見られ、モデルに公平性が欠如していることが示されている。
論文 参考訳(メタデータ) (2023-03-06T16:01:30Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。