論文の概要: Prevention is better than cure: a case study of the abnormalities
detection in the chest
- arxiv url: http://arxiv.org/abs/2305.10961v1
- Date: Thu, 18 May 2023 13:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 15:06:51.172750
- Title: Prevention is better than cure: a case study of the abnormalities
detection in the chest
- Title(参考訳): 予防は治療より優れている:胸部異常検出の1例
- Authors: Weronika Hryniewska, Piotr Czarnecki, Jakub Wi\'sniewski,
Przemys{\l}aw Bombi\'nski, Przemys{\l}aw Biecek
- Abstract要約: データ不均衡の一連の単純なテストが、データ取得およびアノテーションプロセスの欠陥を露呈する様子を示す。
データ収集段階でのエラーは、モデルを正しく検証することを困難にします。
予測モデルのライフサイクル全体を通して、データの監視とモデルのバランス(フェアネス)について説明する。
- 参考スコア(独自算出の注目度): 4.000351859705655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prevention is better than cure. This old truth applies not only to the
prevention of diseases but also to the prevention of issues with AI models used
in medicine. The source of malfunctioning of predictive models often lies not
in the training process but reaches the data acquisition phase or design of the
experiment phase.
In this paper, we analyze in detail a single use case - a Kaggle competition
related to the detection of abnormalities in X-ray lung images. We demonstrate
how a series of simple tests for data imbalance exposes faults in the data
acquisition and annotation process. Complex models are able to learn such
artifacts and it is difficult to remove this bias during or after the training.
Errors made at the data collection stage make it difficult to validate the
model correctly.
Based on this use case, we show how to monitor data and model balance
(fairness) throughout the life cycle of a predictive model, from data
acquisition to parity analysis of model scores.
- Abstract(参考訳): 予防は治療よりましだ。
この古い真実は、病気の予防だけでなく、医学で使用されるAIモデルの問題の予防にも当てはまる。
予測モデルの誤動作の原因はトレーニングプロセスにあるのではなく、データ取得フェーズや実験フェーズの設計にまで達することが多い。
本稿では,x線肺画像における異常の検出に関するカグルコンペティションについて,一つのユースケースを詳細に分析した。
データ不均衡の一連の単純なテストが、データ取得およびアノテーションプロセスの欠陥を露呈する様子を実演する。
複雑なモデルはそのようなアーティファクトを学習することができ、トレーニング中や後にこのバイアスを取り除くことは困難である。
データ収集段階でのエラーは、モデルを正しく検証することを困難にします。
このユースケースに基づいて,データ取得からモデルスコアのパリティ解析まで,予測モデルのライフサイクルを通してデータとモデルバランス(フェアネス)の監視方法を示す。
関連論文リスト
- One Shot GANs for Long Tail Problem in Skin Lesion Dataset using novel content space assessment metric [1.833650794546064]
医療分野では、まれな状態の医療データが不足しているため、長い尾の問題は頻繁に発生する。
One Shot GANsは、追加のサンプルを生成することで、HAM10000データセットのテールクラスを拡張するために使用された。
論文 参考訳(メタデータ) (2024-09-30T04:51:54Z) - Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data [49.73114504515852]
各世代の合成データによって元の実データを置き換えることは、モデル崩壊の傾向にあることを示す。
生成した実データと連続する合成データの蓄積は,モデル崩壊を回避することを実証する。
論文 参考訳(メタデータ) (2024-04-01T18:31:24Z) - LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection [49.52429991848581]
深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
論文 参考訳(メタデータ) (2023-10-09T12:36:16Z) - Test-Time Selection for Robust Skin Lesion Analysis [20.792979998188848]
皮膚病変解析モデルは、画像取得時に置かれたアーティファクトによってバイアスを受ける。
TTS(Test-Time Selection)は,陽性(病変領域など)と陰性(アーティファクトなど)のキーポイントを有効活用するループ法である。
私たちのソリューションは、さまざまなアノテーションの可用性、さまざまなレベルのバイアスに対して堅牢です。
論文 参考訳(メタデータ) (2023-08-10T14:08:50Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Medical data wrangling with sequential variational autoencoders [5.9207487081080705]
本稿では,逐次変分オートエンコーダ(vaes)を用いた異種データ型とバースト欠落データを用いた医療データ記録のモデル化を提案する。
GP-VAEモデルより計算複雑性が低く,両指標を用いた場合,Shi-VAEが最高の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-03-12T10:59:26Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Debugging Tests for Model Explanations [18.073554618753395]
テストされたメソッドは、急激なバックグラウンドバグを診断することができるが、誤ってラベル付けされたトレーニング例を決定的に識別することはできない。
被験者は属性を用いて欠陥モデルを特定するのに失敗するが、主にモデル予測に頼っている。
論文 参考訳(メタデータ) (2020-11-10T22:23:25Z) - Bayesian Sampling Bias Correction: Training with the Right Loss Function [0.0]
我々は、サンプリングバイアスの存在下でモデルを訓練するために損失関数の族を導出する。
例えば、病理の頻度がトレーニングデータセットのサンプリングレートと異なる場合や、マシンラーニングの実践者がトレーニングデータセットを再バランスする場合などだ。
論文 参考訳(メタデータ) (2020-06-24T15:10:43Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。