論文の概要: PAC Bayesian Performance Guarantees for Deep (Stochastic) Networks in
Medical Imaging
- arxiv url: http://arxiv.org/abs/2104.05600v1
- Date: Mon, 12 Apr 2021 16:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 19:39:27.294293
- Title: PAC Bayesian Performance Guarantees for Deep (Stochastic) Networks in
Medical Imaging
- Title(参考訳): pac bayesian performance guarantees for deep (stochastic) network in medical imaging (英語)
- Authors: Anthony Sicilia, Xingchen Zhao, Anastasia Sosnovskikh, Seong Jae Hwang
- Abstract要約: PAC-Bayesian bounds on generalization error are non-vacuous while a sharp reduction of sample size。
また,pac-bayesianフレームワークでは一般的ではないセグメント化タスクにおけるディープネットワークの一般化も検討する。
その結果,PAC-ベイジアン境界の医療画像領域における深いネットワークへの応用性が示された。
- 参考スコア(独自算出の注目度): 7.1606014219358425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Application of deep neural networks to medical imaging tasks has in some
sense become commonplace. Still, a "thorn in the side" of the deep learning
movement is the argument that deep networks are somehow prone to overfitting
and are thus unable to generalize well when datasets are small. The claim is
not baseless and likely stems from the observation that PAC bounds on
generalization error are usually so large for deep networks that they are
vacuous (i.e., logically meaningless). Contrary to this, recent advances using
the PAC-Bayesian framework have instead shown non-vacuous bounds on
generalization error for large (stochastic) networks and standard datasets
(e.g., MNIST and CIFAR-10). We apply these techniques to a much smaller medical
imagining dataset (the ISIC 2018 challenge set). Further, we consider
generalization of deep networks on segmentation tasks which has not commonly
been done using the PAC-Bayesian framework. Importantly, we observe that the
resultant bounds are also non-vacuous despite the sharp reduction in sample
size. In total, our results demonstrate the applicability of PAC-Bayesian
bounds for deep stochastic networks in the medical imaging domain.
- Abstract(参考訳): 深層ニューラルネットワークの医療画像への応用は、ある意味では一般的である。
それでも、ディープラーニングムーブメントの"側面のツーン"は、ディープネットワークが何らかの形で過剰に適合しがちで、データセットが小さい場合にはうまく一般化できない、という主張である。
この主張はベースレスではなく、一般化誤差のPAC境界が深いネットワークにとって大きすぎる(すなわち論理的に意味がない)という観察に由来する可能性が高い。
これとは対照的に、PAC-Bayesianフレームワークを用いた最近の進歩は、大規模(確率的な)ネットワークと標準データセット(例えば、MNISTとCIFAR-10)の一般化誤差に非空境界を示す。
これらのテクニックを、より小さな医療想像データセット(isic 2018チャレンジセット)に適用します。
さらに,PAC-Bayesian フレームワークを用いて行われていないセグメンテーションタスクにおけるディープネットワークの一般化を検討する。
重要視されるのは, 試料サイズが激減しているにもかかわらず, 結果境界も空でないことである。
以上より,医用画像領域における深部確率ネットワークに対するPAC-Bayesian境界の適用性を示した。
関連論文リスト
- FunnelNet: An End-to-End Deep Learning Framework to Monitor Digital Heart Murmur in Real-Time [5.408260756721024]
心室は、心臓内の乱流によって生じる異常な音である。
本研究は,従来型および深部畳み込み型ネットワークを用いた,エンドツーエンドの心臓外傷検出手法を開発することを目的とする。
論文 参考訳(メタデータ) (2024-05-10T03:12:17Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - PAC-Bayes Compression Bounds So Tight That They Can Explain
Generalization [48.26492774959634]
線形部分空間におけるニューラルネットワークパラメータの量子化に基づく圧縮手法を開発した。
我々は、オッカムのカミソリをカプセル化した大きなモデルを、以前に知られていたよりもはるかに大きな範囲に圧縮できることを発見した。
論文 参考訳(メタデータ) (2022-11-24T13:50:16Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - On Margins and Derandomisation in PAC-Bayes [7.1577508803778045]
我々は, PAC-Bayesian 一般化境界をデランドマイズするフレームワークを開発し, 学習データに対するマージンを達成した。
我々はこれらのツールを線形予測、異常なエルフ活性化機能を持つ単層ニューラルネットワーク、深いReLUネットワークに適用し、新しい境界を求める。
論文 参考訳(メタデータ) (2021-07-08T16:30:08Z) - The Limitations of Large Width in Neural Networks: A Deep Gaussian
Process Perspective [34.67386186205545]
本稿では、ニューラルネットワークの一般化による容量と幅をディープガウス過程(ディープGP)に分離する。
驚くべきことに、非パラメトリックディープGPでさえガウス過程に収束し、表現力の増大なしに事実上より浅くなることを証明する。
GP動作を制限する前にテストセットのパフォーマンスを最大化する「スイートスポット」があることが、非パラメトリックディープGPの場合、幅 = 1 または幅 = 2 で発生する適応性を妨げている。
論文 参考訳(メタデータ) (2021-06-11T17:58:58Z) - A General Framework for the Practical Disintegration of PAC-Bayesian
Bounds [2.516393111664279]
我々は、分解された境界を与えるために原性を持つ新しいPAC-ベイズ一般化境界を導入する。
我々の境界は容易に最適化でき、学習アルゴリズムの設計に使うことができる。
論文 参考訳(メタデータ) (2021-02-17T09:36:46Z) - Density Compensated Unrolled Networks for Non-Cartesian MRI
Reconstruction [1.6328866317851185]
k-空間の不均一な重み付けを補正するために密度補償に依存する密度補償未展開ニューラルネットワークを紹介します。
公開するFastMRIデータセットでそれらの効率を評価し、小さなアブレーション調査を行います。
論文 参考訳(メタデータ) (2021-01-05T15:03:38Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。