論文の概要: Smoother Network Tuning and Interpolation for Continuous-level Image
Processing
- arxiv url: http://arxiv.org/abs/2010.02270v1
- Date: Mon, 5 Oct 2020 18:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 22:16:42.990066
- Title: Smoother Network Tuning and Interpolation for Continuous-level Image
Processing
- Title(参考訳): 連続レベル画像処理のためのスムースなネットワークチューニングと補間
- Authors: Hyeongmin Lee, Taeoh Kim, Hanbin Son, Sangwook Baek, Minsu Cheon,
Sangyoun Lee
- Abstract要約: フィルタ遷移ネットワーク(FTN)は、連続学習のための構造的にスムーズなモジュールである。
FTNは様々なタスクやネットワークをまたいでうまく一般化し、望ましくない副作用を少なくする。
FTNの安定学習のために,IDマッピングを用いた非線形ニューラルネットワーク層を提案する。
- 参考スコア(独自算出の注目度): 7.730087303035803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Convolutional Neural Network (CNN) based image processing, most studies
propose networks that are optimized to single-level (or single-objective);
thus, they underperform on other levels and must be retrained for delivery of
optimal performance. Using multiple models to cover multiple levels involves
very high computational costs. To solve these problems, recent approaches train
networks on two different levels and propose their own interpolation methods to
enable arbitrary intermediate levels. However, many of them fail to generalize
or have certain side effects in practical usage. In this paper, we define these
frameworks as network tuning and interpolation and propose a novel module for
continuous-level learning, called Filter Transition Network (FTN). This module
is a structurally smoother module than existing ones. Therefore, the frameworks
with FTN generalize well across various tasks and networks and cause fewer
undesirable side effects. For stable learning of FTN, we additionally propose a
method to initialize non-linear neural network layers with identity mappings.
Extensive results for various image processing tasks indicate that the
performance of FTN is comparable in multiple continuous levels, and is
significantly smoother and lighter than that of other frameworks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnn)ベースの画像処理において、ほとんどの研究は、単一レベル(または単一目的)に最適化されたネットワークを提案する。
複数のレベルをカバーするために複数のモデルを使用するには、非常に高い計算コストがかかる。
これらの問題を解決するために、最近のアプローチでは、2つの異なるレベルのネットワークを訓練し、任意の中間レベルを実現するために独自の補間法を提案する。
しかし、それらの多くは実際の使用において一般化や何らかの副作用を及ぼさない。
本稿では,これらのフレームワークをネットワークチューニングと補間として定義し,フィルタ遷移ネットワーク(FTN)と呼ばれる連続学習のための新しいモジュールを提案する。
このモジュールは既存のモジュールよりも構造的に滑らかなモジュールである。
したがって、FTN のフレームワークは様々なタスクやネットワークにわたってうまく一般化され、望ましくない副作用が少ない。
また、FTNの安定学習のために、IDマッピングを用いて非線形ニューラルネットワーク層を初期化する手法を提案する。
さまざまな画像処理タスクの広範な結果から、ftnのパフォーマンスは複数の連続レベルにおいて同等であり、他のフレームワークよりもかなり滑らかで軽量であることが分かる。
関連論文リスト
- Efficient Implementation of a Multi-Layer Gradient-Free Online-Trainable
Spiking Neural Network on FPGA [0.31498833540989407]
ODESAは、グラデーションを使わずに、エンド・ツー・エンドの多層オンラインローカル教師ありトレーニングを行う最初のネットワークである。
本研究は,ネットワークアーキテクチャと重みとしきい値のオンライントレーニングを,大規模ハードウェア上で効率的に実施可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T00:34:15Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Online Exemplar Fine-Tuning for Image-to-Image Translation [32.556050882376965]
ディープ畳み込みニューラルネットワーク(CNN)において、既存の画像から画像への変換を解決するには、ネットワークパラメータを最適化するためのトレーニングフェーズが必要である。
入力画像ペアが与えられたオンライン最適化により,先進的な翻訳を初めて解決する新しいフレームワークを提案する。
我々のフレームワークは、既存の手法の主な課題であるオフライントレーニングフェーズを必要とせず、オンラインの最適化を可能にするためにトレーニング済みのネットワークを必要としています。
論文 参考訳(メタデータ) (2020-11-18T15:13:16Z) - Neural Function Modules with Sparse Arguments: A Dynamic Approach to
Integrating Information across Layers [84.57980167400513]
Neural Function Modules (NFM)は、ディープラーニングに同じ構造機能を導入することを目的としている。
トップダウンとボトムアップのフィードバックを組み合わせたフィードフォワードネットワークのコンテキストにおける作業のほとんどは、分類の問題に限られている。
私たちの仕事の重要な貢献は、フレキシブルなアルゴリズムで注意、疎結合、トップダウン、ボトムアップのフィードバックを組み合わせることです。
論文 参考訳(メタデータ) (2020-10-15T20:43:17Z) - Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images [15.236873250912062]
デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-13T02:59:31Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z) - Exemplar Normalization for Learning Deep Representation [34.42934843556172]
本研究は、初等正規化(EN)を提案することによって、新しい動的学習-正規化(L2N)問題について検討する。
ENは、異なる畳み込み層とディープネットワークの画像サンプルの異なる正規化方法を学ぶことができる。
論文 参考訳(メタデータ) (2020-03-19T13:23:40Z) - Regularized Adaptation for Stable and Efficient Continuous-Level
Learning on Image Processing Networks [7.730087303035803]
フィルタ遷移ネットワーク(FTN)を用いた新しい連続レベル学習フレームワークを提案する。
FTNは、新しいレベルに容易に適応できる非線形モジュールであり、望ましくない副作用を防ぐために正規化されている。
様々な画像処理結果から,FTNの性能は適応性および適応性において安定であることが示唆された。
論文 参考訳(メタデータ) (2020-03-11T07:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。