論文の概要: Regularized Adaptation for Stable and Efficient Continuous-Level
Learning on Image Processing Networks
- arxiv url: http://arxiv.org/abs/2003.05145v2
- Date: Thu, 12 Mar 2020 03:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:39:25.876319
- Title: Regularized Adaptation for Stable and Efficient Continuous-Level
Learning on Image Processing Networks
- Title(参考訳): 画像処理ネットワークにおける安定かつ効率的な連続学習のための規則化適応
- Authors: Hyeongmin Lee, Taeoh Kim, Hanbin Son, Sangwook Baek, Minsu Cheon,
Sangyoun Lee
- Abstract要約: フィルタ遷移ネットワーク(FTN)を用いた新しい連続レベル学習フレームワークを提案する。
FTNは、新しいレベルに容易に適応できる非線形モジュールであり、望ましくない副作用を防ぐために正規化されている。
様々な画像処理結果から,FTNの性能は適応性および適応性において安定であることが示唆された。
- 参考スコア(独自算出の注目度): 7.730087303035803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Convolutional Neural Network (CNN) based image processing, most of the
studies propose networks that are optimized for a single-level (or a
single-objective); thus, they underperform on other levels and must be
retrained for delivery of optimal performance. Using multiple models to cover
multiple levels involves very high computational costs. To solve these
problems, recent approaches train the networks on two different levels and
propose their own interpolation methods to enable the arbitrary intermediate
levels. However, many of them fail to adapt hard tasks or interpolate smoothly,
or the others still require large memory and computational cost. In this paper,
we propose a novel continuous-level learning framework using a Filter
Transition Network (FTN) which is a non-linear module that easily adapt to new
levels, and is regularized to prevent undesirable side-effects. Additionally,
for stable learning of FTN, we newly propose a method to initialize non-linear
CNNs with identity mappings. Furthermore, FTN is extremely lightweight module
since it is a data-independent module, which means it is not affected by the
spatial resolution of the inputs. Extensive results for various image
processing tasks indicate that the performance of FTN is stable in terms of
adaptation and interpolation, and comparable to that of the other heavy
frameworks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnn)ベースの画像処理において、多くの研究は、単一レベル(または単一目的)に最適化されたネットワークを提案する。
複数のレベルをカバーするために複数のモデルを使用するには、非常に高い計算コストがかかる。
これらの問題を解決するために、最近のアプローチでは、2つの異なるレベルでネットワークを訓練し、任意の中間レベルを可能にする独自の補間法を提案する。
しかし、それらの多くはハードタスクへの適応やスムースな補間に失敗し、その他は大きなメモリと計算コストを必要とする。
本稿では,新しいレベルに容易に適応できる非線形モジュールであるフィルタ遷移ネットワーク(FTN)を用いた新しい連続レベル学習フレームワークを提案する。
さらに,FTNの安定学習のために,IDマッピングを用いて非線形CNNを初期化する手法を提案する。
さらに、FTNはデータに依存しないモジュールであるため、非常に軽量なモジュールであるため、入力の空間分解能の影響を受けない。
様々な画像処理タスクの広範な結果は、FTNの性能は適応や補間において安定であり、他の重いフレームワークと同等であることを示している。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Training Latency Minimization for Model-Splitting Allowed Federated Edge
Learning [16.8717239856441]
我々は,深層ニューラルネットワーク(DNN)の訓練において,クライアントが直面する計算能力の不足を軽減するためのモデル分割許容FL(SFL)フレームワークを提案する。
同期したグローバルアップデート設定では、グローバルトレーニングを完了するためのレイテンシは、クライアントがローカルトレーニングセッションを完了するための最大レイテンシによって決定される。
この混合整数非線形計画問題の解法として,AIモデルのカット層と他のパラメータの量的関係に適合する回帰法を提案し,TLMPを連続的な問題に変換する。
論文 参考訳(メタデータ) (2023-07-21T12:26:42Z) - Efficient Implementation of a Multi-Layer Gradient-Free Online-Trainable
Spiking Neural Network on FPGA [0.31498833540989407]
ODESAは、グラデーションを使わずに、エンド・ツー・エンドの多層オンラインローカル教師ありトレーニングを行う最初のネットワークである。
本研究は,ネットワークアーキテクチャと重みとしきい値のオンライントレーニングを,大規模ハードウェア上で効率的に実施可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T00:34:15Z) - NL-CS Net: Deep Learning with Non-Local Prior for Image Compressive
Sensing [7.600617428107161]
近年,画像の圧縮センシング(CS)にディープラーニングが応用されている。
本稿では,従来の最適化手法の解釈可能性と,NL-CS Netと呼ばれるネットワークベース手法の高速化を併用した,非局所的前処理を用いた新しいCS手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:34:28Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Smoother Network Tuning and Interpolation for Continuous-level Image
Processing [7.730087303035803]
フィルタ遷移ネットワーク(FTN)は、連続学習のための構造的にスムーズなモジュールである。
FTNは様々なタスクやネットワークをまたいでうまく一般化し、望ましくない副作用を少なくする。
FTNの安定学習のために,IDマッピングを用いた非線形ニューラルネットワーク層を提案する。
論文 参考訳(メタデータ) (2020-10-05T18:29:52Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z) - Exemplar Normalization for Learning Deep Representation [34.42934843556172]
本研究は、初等正規化(EN)を提案することによって、新しい動的学習-正規化(L2N)問題について検討する。
ENは、異なる畳み込み層とディープネットワークの画像サンプルの異なる正規化方法を学ぶことができる。
論文 参考訳(メタデータ) (2020-03-19T13:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。