論文の概要: Multiresolution Convolutional Autoencoders
- arxiv url: http://arxiv.org/abs/2004.04946v1
- Date: Fri, 10 Apr 2020 08:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:43:45.273631
- Title: Multiresolution Convolutional Autoencoders
- Title(参考訳): 多分解能畳み込みオートエンコーダ
- Authors: Yuying Liu, Colin Ponce, Steven L. Brunton, J. Nathan Kutz
- Abstract要約: 本稿では,3つの数学的アーキテクチャを統合し,活用する多分解能畳み込みオートエンコーダアーキテクチャを提案する。
基礎学習技術を適用して、以前のトレーニングステップから学んだ情報を、より大規模なネットワークに迅速に転送できるようにする。
合成例と実世界の空間データに関する数値実験により,性能向上を図示する。
- 参考スコア(独自算出の注目度): 5.0169726108025445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a multi-resolution convolutional autoencoder (MrCAE) architecture
that integrates and leverages three highly successful mathematical
architectures: (i) multigrid methods, (ii) convolutional autoencoders and (iii)
transfer learning. The method provides an adaptive, hierarchical architecture
that capitalizes on a progressive training approach for multiscale
spatio-temporal data. This framework allows for inputs across multiple scales:
starting from a compact (small number of weights) network architecture and
low-resolution data, our network progressively deepens and widens itself in a
principled manner to encode new information in the higher resolution data based
on its current performance of reconstruction. Basic transfer learning
techniques are applied to ensure information learned from previous training
steps can be rapidly transferred to the larger network. As a result, the
network can dynamically capture different scaled features at different depths
of the network. The performance gains of this adaptive multiscale architecture
are illustrated through a sequence of numerical experiments on synthetic
examples and real-world spatial-temporal data.
- Abstract(参考訳): 我々は、3つの高度に成功した数学的アーキテクチャを統合し、活用するマルチレゾリューション畳み込みオートエンコーダ(MrCAE)アーキテクチャを提案する。
(i)マルチグリッド方式
(ii)畳み込みオートエンコーダ及び
(iii)転校学習。
この手法は,マルチスケール時空間データに対する漸進的トレーニングアプローチを生かした適応的階層型アーキテクチャを提供する。
このフレームワークは、コンパクトな(少数の)ネットワークアーキテクチャと低解像度のデータから始まり、我々のネットワークは徐々に深くなり、より高解像度なデータに新しい情報をエンコードするように、原理的に自分自身を拡大する。
基本的なトランスファー学習手法を適用して、前回のトレーニングステップから学んだ情報を、より大きなネットワークに迅速に転送できるようにする。
その結果、ネットワークはネットワークの異なる深さで異なるスケールした特徴を動的に捉えることができる。
この適応型マルチスケールアーキテクチャの性能向上は、合成例と実世界の時空間データに関する数値実験の連続を通して説明される。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Modular Blended Attention Network for Video Question Answering [1.131316248570352]
本稿では,再利用可能で構成可能なニューラルユニットを用いた問題解決手法を提案する。
一般的に使用されている3つのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-11-02T14:22:17Z) - Neural Progressive Meshes [54.52990060976026]
本稿では,共有学習空間を用いた3次元メッシュの伝送手法を提案する。
分割型エンコーダ・デコーダアーキテクチャを用いて,この空間を学習する。
本手法は複雑な3次元形状を多種多様な形状で評価し, 圧縮率と復元品質の点で, ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-10T17:58:02Z) - Learning with Multigraph Convolutional Filters [153.20329791008095]
MSPモデルに基づいて情報を処理する階層構造として多グラフ畳み込みニューラルネットワーク(MGNN)を導入する。
また,MGNNにおけるフィルタ係数のトラクタブルな計算手法と,レイヤ間で転送される情報の次元性を低減するための低コストな手法を開発した。
論文 参考訳(メタデータ) (2022-10-28T17:00:50Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Differentiable Architecture Pruning for Transfer Learning [6.935731409563879]
本研究では,与えられた大規模モデルからサブアーキテクチャを抽出するための勾配に基づくアプローチを提案する。
我々のアーキテクチャ・プルーニング・スキームは、異なるタスクを解くために再訓練を成功させることができるトランスファー可能な新しい構造を生成する。
理論的収束保証を提供し、実データ上で提案した伝達学習戦略を検証する。
論文 参考訳(メタデータ) (2021-07-07T17:44:59Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Continual Adaptation for Deep Stereo [52.181067640300014]
本稿では,難易度と変化の激しい環境に対処するために,深層ステレオネットワークの継続的適応パラダイムを提案する。
我々のパラダイムでは、オンラインモデルに継続的に適応するために必要な学習信号は、右から左への画像ワープや従来のステレオアルゴリズムによって自己監督から得られる。
我々のネットワークアーキテクチャと適応アルゴリズムは、初めてのリアルタイム自己適応型ディープステレオシステムを実現する。
論文 参考訳(メタデータ) (2020-07-10T08:15:58Z) - On the Difficulty of Designing Processor Arrays for Deep Neural Networks [0.0]
カムーイ (Camuy) は、線形代数演算のための重み付き定常シストリックアレイの軽量モデルである。
本稿では,必要サイクル,データ移動コスト,およびシストリックアレイの利用率を推定する方法を説明するために,人気モデルの解析を行う。
論文 参考訳(メタデータ) (2020-06-24T19:24:08Z) - Deep Multimodal Transfer-Learned Regression in Data-Poor Domains [0.0]
画像と特徴データのマルチモーダル学習のためのDMTL-R(Deep Multimodal Transfer-Learned Regressor)を提案する。
我々のモデルは、少量のトレーニング画像データに基づいて、与えられたトレーニング済みCNN重みのセットを微調整することができる。
各種CNNアーキテクチャからの事前学習重みを用いた位相場シミュレーションマイクロ構造画像とそれに付随する物理特徴集合を用いた結果を提案する。
論文 参考訳(メタデータ) (2020-06-16T16:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。