論文の概要: Exposing and addressing the fragility of neural networks in digital
pathology
- arxiv url: http://arxiv.org/abs/2206.15274v1
- Date: Thu, 30 Jun 2022 13:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 22:19:19.755309
- Title: Exposing and addressing the fragility of neural networks in digital
pathology
- Title(参考訳): デジタル病理におけるニューラルネットワークの脆弱性の解明と対処
- Authors: Joona Pohjonen, Carolin St\"urenberg, Atte F\"ohr, Esa Pitk\"anen,
Antti Rannikko, Tuomas Mirtti
- Abstract要約: textttStrongAugmentは、大規模な異種病理組織学的データを用いて評価される。
textttStrongAugmentでトレーニングされたニューラルネットワークは、すべてのデータセットで同様のパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have achieved impressive results in many medical imaging
tasks but often perform substantially worse on out-of-distribution datasets
originating from different medical centres or patient cohorts. Evaluating this
lack of ability to generalise and address the underlying problem are the two
main challenges in developing neural networks intended for clinical practice.
In this study, we develop a new method for evaluating neural network models'
ability to generalise by generating a large number of distribution-shifted
datasets, which can be used to thoroughly investigate their robustness to
variability encountered in clinical practice. Compared to external validation,
\textit{shifted evaluation} can provide explanations for why neural networks
fail on a given dataset, thus offering guidance on how to improve model
robustness. With shifted evaluation, we demonstrate that neural networks,
trained with state-of-the-art methods, are highly fragile to even small
distribution shifts from training data, and in some cases lose all
discrimination ability.
To address this fragility, we develop an augmentation strategy, explicitly
designed to increase neural networks' robustness to distribution shifts.
\texttt{StrongAugment} is evaluated with large-scale, heterogeneous
histopathology data including five training datasets from two tissue types, 274
distribution-shifted datasets and 20 external datasets from four countries.
Neural networks trained with \texttt{StrongAugment} retain similar performance
on all datasets, even with distribution shifts where networks trained with
current state-of-the-art methods lose all discrimination ability. We recommend
using strong augmentation and shifted evaluation to train and evaluate all
neural networks intended for clinical practice.
- Abstract(参考訳): ニューラルネットワークは多くの医療画像のタスクで顕著な成果を上げてきたが、しばしば異なる医療センターや患者コホートから派生した分布外のデータセットで著しく悪化する。
基礎となる問題を一般化し対処する能力の欠如は、臨床実践を目的としたニューラルネットワークを開発する上での2つの大きな課題である。
本研究では,分散シフトデータセットを多数生成することにより,ニューラルネットワークモデルの一般化能力を評価する新しい手法を開発した。
外部の検証と比較すると、 \textit{shifted evaluation} は与えられたデータセットでニューラルネットワークが失敗する理由の説明を提供し、モデルロバスト性を改善するためのガイダンスを提供する。
シフト評価により,最先端手法で学習したニューラルネットワークは,訓練データからの分布シフトが小さい場合においても非常に脆弱であり,識別能力が失われる場合もある。
この脆弱性に対処するために、ニューラルネットワークの分散シフトに対する堅牢性を高めるために明示的に設計された拡張戦略を開発します。
\texttt{StrongAugment}は、2つの組織タイプから5つのトレーニングデータセット、274の分布シフトデータセット、4つの国から20の外部データセットを含む、大規模で異種な病理組織データを用いて評価される。
\texttt{strongaugment}でトレーニングされたニューラルネットワークは、現在の最先端の方法でトレーニングされたネットワークがすべての識別能力を失う分散シフトにおいても、すべてのデータセットで同様のパフォーマンスを維持する。
臨床実践を意図したすべてのニューラルネットワークをトレーニングし、評価するために、強化と評価のシフトを推奨する。
関連論文リスト
- Feature Averaging: An Implicit Bias of Gradient Descent Leading to Non-Robustness in Neural Networks [13.983863226803336]
我々は「機能平均化」がディープニューラルネットワークの非ロバスト性に寄与する主要な要因の1つであると論じる。
二層分類タスクのための2層ReLUネットワークにおいて、勾配降下のトレーニング力学を詳細に理論的に解析する。
よりきめ細かい教師付き情報を提供することで、2層多層ニューラルネットワークが個々の特徴を学習できることを実証する。
論文 参考訳(メタデータ) (2024-10-14T09:28:32Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Graph Neural Operators for Classification of Spatial Transcriptomics
Data [1.408706290287121]
マウス脳組織サンプルにおける脳領域の予測に対する神経オペレーターの適用の有効性を検証するために,様々なグラフニューラルネットワークアプローチを取り入れた研究を提案する。
グラフニューラルネットワークのアプローチでは,F1スコアが72%近く向上し,すべてのベースラインやグラフネットワークのアプローチを上回った。
論文 参考訳(メタデータ) (2023-02-01T18:32:06Z) - Global quantitative robustness of regression feed-forward neural
networks [0.0]
我々は回帰分解点の概念を回帰ニューラルネットワークに適用する。
我々は、故障率のプロキシにより、サンプル外損失によって測定された性能を比較した。
この結果は、ニューラルネットワークのトレーニングにロバストな損失関数を使うことを動機付けている。
論文 参考訳(メタデータ) (2022-11-18T09:57:53Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。