論文の概要: Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models
- arxiv url: http://arxiv.org/abs/2204.01729v1
- Date: Mon, 4 Apr 2022 09:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 12:52:57.291177
- Title: Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models
- Title(参考訳): 医用画像からの学習特徴に対するデータ不均衡処理の影響のモデルによる分析
- Authors: Ashkan Khakzar, Yawei Li, Yang Zhang, Mirac Sanisoglu, Seong Tae Kim,
Mina Rezaei, Bernd Bischl, Nassir Navab
- Abstract要約: 不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
- 参考スコア(独自算出の注目度): 50.537859423741644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One challenging property lurking in medical datasets is the imbalanced data
distribution, where the frequency of the samples between the different classes
is not balanced. Training a model on an imbalanced dataset can introduce unique
challenges to the learning problem where a model is biased towards the highly
frequent class. Many methods are proposed to tackle the distributional
differences and the imbalanced problem. However, the impact of these approaches
on the learned features is not well studied. In this paper, we look deeper into
the internal units of neural networks to observe how handling data imbalance
affects the learned features. We study several popular cost-sensitive
approaches for handling data imbalance and analyze the feature maps of the
convolutional neural networks from multiple perspectives: analyzing the
alignment of salient features with pathologies and analyzing the
pathology-related concepts encoded by the networks. Our study reveals
differences and insights regarding the trained models that are not reflected by
quantitative metrics such as AUROC and AP and show up only by looking at the
models through a lens.
- Abstract(参考訳): 医学データセットに潜む困難な特性の1つは、異なるクラス間のサンプルの頻度がバランスが取れない不均衡なデータ分布である。
不均衡データセット上でモデルをトレーニングすることは、モデルを非常に頻繁なクラスにバイアスする学習問題にユニークな課題をもたらす可能性がある。
分布差と不均衡問題に対処する多くの手法が提案されている。
しかし、これらのアプローチが学習機能に与える影響は十分に研究されていない。
本稿では、ニューラルネットワークの内部ユニットを深く調べ、データ不均衡の処理が学習した特徴に与える影響を観察する。
本研究では,複数の視点から畳み込みニューラルネットワークの特徴マップを解析し,その特徴と病理のアライメントを解析し,ネットワークで符号化された病理関連概念を分析する。
本研究は、AUROCやAPなどの量的指標に反映されず、レンズを通してモデルを見ることでのみ現れる訓練されたモデルに関する差異と洞察を明らかにする。
関連論文リスト
- A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Few-shot learning for COVID-19 Chest X-Ray Classification with
Imbalanced Data: An Inter vs. Intra Domain Study [49.5374512525016]
医療画像データセットは、コンピュータ支援診断、治療計画、医学研究に使用される訓練モデルに不可欠である。
データ分散のばらつき、データの不足、ジェネリックイメージから事前トレーニングされたモデルを使用する場合の転送学習の問題などである。
本稿では,データ不足と分散不均衡の影響を軽減するために,一連の手法を統合したシームズニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T16:59:27Z) - The Effect of Balancing Methods on Model Behavior in Imbalanced
Classification Problems [4.370097023410272]
不均衡なデータは、マイノリティクラスからの学習不足によってモデルのパフォーマンスが影響を受けるため、分類において課題となる。
この研究は、バランスをとる方法のより困難な側面、すなわちモデル行動への影響に対処する。
これらの変化を捉えるために、説明可能な人工知能ツールは、バランスをとる前後にデータセットでトレーニングされたモデルを比較するために使用される。
論文 参考訳(メタデータ) (2023-06-30T22:25:01Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Towards Understanding How Data Augmentation Works with Imbalanced Data [17.478900028887537]
本稿では,データ拡張が3つの異なる分類器,畳み込みニューラルネットワーク,サポートベクトルマシン,ロジスティック回帰モデルに与える影響について検討する。
本研究は,不均衡データに適用した場合,モデル重み,サポートベクトル,特徴選択に大きな変化が生じることを示す。
DAはデータの分散を促進することによって機能し、機械学習モデルがデータの変化とラベルを関連付けることができる、という仮説を立てる。
論文 参考訳(メタデータ) (2023-04-12T15:01:22Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。