論文の概要: ExplainFix: Explainable Spatially Fixed Deep Networks
- arxiv url: http://arxiv.org/abs/2303.10408v1
- Date: Sat, 18 Mar 2023 12:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:38:19.356041
- Title: ExplainFix: Explainable Spatially Fixed Deep Networks
- Title(参考訳): explainfix: 空間的に固定されたディープネットワークの説明
- Authors: Alex Gaudio, Christos Faloutsos, Asim Smailagic, Pedro Costa, Aurelio
Campilho
- Abstract要約: ExplainFixは、ディープ畳み込みニューラルネットワークの原則のセットである。
モデルは、完全に学習されたモデルより最大100倍少ない空間フィルタカーネルを持つ。
我々の経験的分析により、ExplainFixは学習率の増大とモデルサイズの変化に対する堅牢性を保証する。
- 参考スコア(独自算出の注目度): 13.573247358000156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Is there an initialization for deep networks that requires no learning?
ExplainFix adopts two design principles: the "fixed filters" principle that all
spatial filter weights of convolutional neural networks can be fixed at
initialization and never learned, and the "nimbleness" principle that only few
network parameters suffice. We contribute (a) visual model-based explanations,
(b) speed and accuracy gains, and (c) novel tools for deep convolutional neural
networks. ExplainFix gives key insights that spatially fixed networks should
have a steered initialization, that spatial convolution layers tend to
prioritize low frequencies, and that most network parameters are not necessary
in spatially fixed models. ExplainFix models have up to 100x fewer spatial
filter kernels than fully learned models and matching or improved accuracy. Our
extensive empirical analysis confirms that ExplainFix guarantees nimbler models
(train up to 17\% faster with channel pruning), matching or improved predictive
performance (spanning 13 distinct baseline models, four architectures and two
medical image datasets), improved robustness to larger learning rate, and
robustness to varying model size. We are first to demonstrate that all spatial
filters in state-of-the-art convolutional deep networks can be fixed at
initialization, not learned.
- Abstract(参考訳): 学習を必要としないディープネットワークの初期化はあるか?
ExplainFixは、畳み込みニューラルネットワークのすべての空間フィルタ重みを初期化時に固定することができ、学習されないという「固定フィルタ」原則と、ネットワークパラメータが十分でない「偶発性」原則の2つの設計原則を採用している。
貢献します
(a)視覚モデルに基づく説明
(b)速度及び精度の向上及び
(c)深層畳み込みニューラルネットワークのための新しいツール。
explainfixは、空間固定型ネットワークは制御された初期化を持つべきであり、空間畳み込み層は低周波を優先する傾向があり、ほとんどのネットワークパラメータは空間固定型モデルでは必要ではないという重要な洞察を与える。
explainfixモデルは、完全に学習されたモデルやマッチングや精度向上よりも、最大100倍少ない空間フィルターカーネルを持つ。
我々の広範な実証分析により、ExplainFixは、ニブラーモデル(チャネルプルーニングで最大17倍の速度でトレーニング)、マッチングまたは予測性能の改善(13の異なるベースラインモデル、4つのアーキテクチャ、2つの医療画像データセット)、より大きな学習率に対する堅牢性の向上、モデルサイズの変化に対する堅牢性を保証する。
まず、最先端の畳み込み深層ネットワークにおける全ての空間フィルタが、学習ではなく初期化時に固定可能であることを示す。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Using explainability to design physics-aware CNNs for solving subsurface
inverse problems [0.0]
本稿では,物理を意識したニューラルネットワークの設計に説明可能性を用いた新しい手法を提案する。
我々は,浅層画像の逆問題を解決するために,畳み込みニューラルネットワーク(CNN)を開発することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2022-11-16T03:59:29Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Contrasting random and learned features in deep Bayesian linear
regression [12.234742322758418]
本研究では,学習能力が単純なモデルの一般化性能に与える影響について検討する。
すべての層が訓練されたディープネットワークと比較することにより、幅、深さ、データ密度、事前のミスマッチの相互作用を詳細に解析する。
論文 参考訳(メタデータ) (2022-03-01T15:51:29Z) - a novel attention-based network for fast salient object detection [14.246237737452105]
現在の有向物体検出ネットワークにおいて、最も一般的な方法はU字型構造を用いることである。
3つのコントリビューションを持つ新しい深層畳み込みネットワークアーキテクチャを提案する。
提案手法は, 精度を損なうことなく, 原サイズの1/3まで圧縮できることを示した。
論文 参考訳(メタデータ) (2021-12-20T12:30:20Z) - Rapid training of deep neural networks without skip connections or
normalization layers using Deep Kernel Shaping [46.083745557823164]
我々は、深層ネットワークに存在する主な病理組織を特定し、それらが高速にトレーニングされ、目に見えないデータに一般化されるのを防ぐ。
本稿では,ネットワークのカーネル関数の「形状」を慎重に制御することで,これらを回避する方法を示す。
論文 参考訳(メタデータ) (2021-10-05T00:49:36Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。