論文の概要: Uncertain but Useful: Leveraging CNN Variability into Data Augmentation
- arxiv url: http://arxiv.org/abs/2509.05238v1
- Date: Fri, 05 Sep 2025 16:54:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.657657
- Title: Uncertain but Useful: Leveraging CNN Variability into Data Augmentation
- Title(参考訳): 不確かだが有用:データ拡張へのCNNの多様性の活用
- Authors: Inés Gonzalez-Pepe, Vinuyan Sivakolunthu, Yohan Chatelain, Tristan Glatard,
- Abstract要約: CNNベースの全脳分節パイプラインであるFastSurferを用いて、トレーニング時間変動について検討する。
我々は、FastSurferが従来のニューロイメージングパイプラインよりも高いばらつきを示すことを発見した。
概念実証として,脳年齢回帰のためのデータ拡張戦略として数値アンサンブルを用いることができることを示す。
- 参考スコア(独自算出の注目度): 1.137457877869062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) is rapidly advancing neuroimaging by achieving state-of-the-art performance with reduced computation times. Yet the numerical stability of DL models -- particularly during training -- remains underexplored. While inference with DL is relatively stable, training introduces additional variability primarily through iterative stochastic optimization. We investigate this training-time variability using FastSurfer, a CNN-based whole-brain segmentation pipeline. Controlled perturbations are introduced via floating point perturbations and random seeds. We find that: (i) FastSurfer exhibits higher variability compared to that of a traditional neuroimaging pipeline, suggesting that DL inherits and is particularly susceptible to sources of instability present in its predecessors; (ii) ensembles generated with perturbations achieve performance similar to an unperturbed baseline; and (iii) variability effectively produces ensembles of numerical model families that can be repurposed for downstream applications. As a proof of concept, we demonstrate that numerical ensembles can be used as a data augmentation strategy for brain age regression. These findings position training-time variability not only as a reproducibility concern but also as a resource that can be harnessed to improve robustness and enable new applications in neuroimaging.
- Abstract(参考訳): 深層学習(DL)は、計算時間を短縮して最先端の性能を達成することにより、急速にニューロイメージングを推し進めている。
しかし、DLモデルの数値的安定性(特に訓練中)は未定のままである。
DLによる推論は比較的安定しているが、トレーニングは主に反復確率最適化によって追加の可変性を導入する。
CNNベースの全脳分割パイプラインであるFastSurferを用いて、このトレーニング時間変動について検討する。
制御された摂動は浮動小数点摂動とランダムシードによって導入される。
以下に示す。
(i)FastSurferは、従来のニューロイメージングパイプラインと比較して高い変動性を示し、DLが継承され、特に前者に存在する不安定性の原因に影響を受けやすいことを示唆する。
(二)摂動によって生ずるアンサンブルは、乱れのないベースラインと同様のパフォーマンスを達成する。
三 変動性は、下流の用途に再利用できる数値モデルファミリーのアンサンブルを効果的に生成する。
概念実証として,脳年齢回帰のためのデータ拡張戦略として数値アンサンブルを用いることができることを示す。
これらの知見は、再現性だけでなく、堅牢性を向上し、ニューロイメージングにおける新しい応用を可能にするリソースとして、トレーニング時間の変動を位置づけている。
関連論文リスト
- Game-Theoretic Gradient Control for Robust Neural Network Training [0.0]
フィードフォワードニューラルネットワーク(FFNN)は入力ノイズに弱いため、予測性能が低下する。
本研究の目的は,バックプロパゲーションを改良し,マルチエージェントゲームとして解釈し,制御対象変数の雑音化を探索することにより,FFNN雑音の頑健性を高めることである。
論文 参考訳(メタデータ) (2025-07-25T10:26:25Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Adjustment for Confounding using Pre-Trained Representations [2.916285040262091]
本研究では,事前学習したニューラルネットワークの潜時的特徴をどのように活用し,共起源の調整を行うかを検討する。
ニューラルネットワークは、学習問題の空間性と次元という本質的な概念に適応することで、高速収束率を達成することができることを示す。
論文 参考訳(メタデータ) (2025-06-17T09:11:17Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Interpretable Deep Regression Models with Interval-Censored Failure Time Data [1.2993568435938014]
間隔制限付きデータの深層学習手法は、まだ探索が過小評価されており、特定のデータタイプやモデルに限られている。
本研究は、部分線形変換モデルの幅広いクラスを持つ区間知覚データに対する一般的な回帰フレームワークを提案する。
我々の手法をアルツハイマー病神経イメージングイニシアチブデータセットに適用すると、従来のアプローチと比較して新しい洞察と予測性能が向上する。
論文 参考訳(メタデータ) (2025-03-25T15:27:32Z) - Evidential Physics-Informed Neural Networks [0.0]
本稿では,エビデンシャル・ディープ・ラーニングの原理に基づいて定式化された物理インフォームド・ニューラル・ニューラルネットワークの新たなクラスを提案する。
1次元および2次元非線形微分方程式を含む逆問題に対して、我々のモデルを適用する方法を示す。
論文 参考訳(メタデータ) (2025-01-27T10:01:10Z) - NeFT: Negative Feedback Training to Improve Robustness of Compute-In-Memory DNN Accelerators [16.942980574566818]
ネットワーク全体のマルチスケールノイズ情報をより効果的に捉えるために,Negative Feedback Training (NeFT)を提案する。
NeFTは既存の最先端の手法よりも45.08%向上している。
論文 参考訳(メタデータ) (2023-05-23T22:56:26Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。