論文の概要: Generic Perceptual Loss for Modeling Structured Output Dependencies
- arxiv url: http://arxiv.org/abs/2103.10571v1
- Date: Thu, 18 Mar 2021 23:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:34:38.760698
- Title: Generic Perceptual Loss for Modeling Structured Output Dependencies
- Title(参考訳): 構造的出力依存性のモデル化のためのジェネリック知覚損失
- Authors: Yifan Liu, Hao Chen, Yu Chen, Wei Yin, Chunhua Shen
- Abstract要約: トレーニングされた重みではなく、ネットワーク構造が重要であることを示す。
我々は、出力の構造化依存関係をモデル化するためにランダムに重み付けされたディープcnnが使用できることを実証する。
- 参考スコア(独自算出の注目度): 78.59700528239141
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The perceptual loss has been widely used as an effective loss term in image
synthesis tasks including image super-resolution, and style transfer. It was
believed that the success lies in the high-level perceptual feature
representations extracted from CNNs pretrained with a large set of images. Here
we reveal that, what matters is the network structure instead of the trained
weights. Without any learning, the structure of a deep network is sufficient to
capture the dependencies between multiple levels of variable statistics using
multiple layers of CNNs. This insight removes the requirements of pre-training
and a particular network structure (commonly, VGG) that are previously assumed
for the perceptual loss, thus enabling a significantly wider range of
applications. To this end, we demonstrate that a randomly-weighted deep CNN can
be used to model the structured dependencies of outputs. On a few dense
per-pixel prediction tasks such as semantic segmentation, depth estimation and
instance segmentation, we show improved results of using the extended
randomized perceptual loss, compared to the baselines using pixel-wise loss
alone. We hope that this simple, extended perceptual loss may serve as a
generic structured-output loss that is applicable to most structured output
learning tasks.
- Abstract(参考訳): 知覚損失は画像のスーパーレゾリューションやスタイル転送などの画像合成タスクにおいて有効な損失項として広く用いられてきた。
成功は、大量の画像で訓練されたcnnから抽出された高レベルの知覚的特徴表現にあると信じられていた。
ここでは、トレーニングされた重みではなく、ネットワーク構造が重要であることを明らかにする。
学習がなければ、深層ネットワークの構造は、CNNの複数の層を使用して、変数統計の複数のレベル間の依存関係をキャプチャするのに十分である。
この洞察は、事前学習の要件と、知覚的損失を前提とした特定のネットワーク構造(通常、vgg)を取り除き、より広い範囲のアプリケーションを可能にする。
この目的のために、ランダムに重み付けされた深部CNNを用いて出力の構造的依存関係をモデル化できることを実証する。
セマンティックセグメンテーション,深度推定,インスタンスセグメンテーションなど,画素ごとの高密度な予測タスクでは,画素単位の損失を用いたベースラインと比較して,拡張されたランダム化知覚損失を用いた結果が改善された。
このシンプルで拡張された知覚的損失が、ほとんどの構造化された出力学習タスクに適用可能な、汎用的な構造化された出力損失になることを期待している。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - FourierLoss: Shape-Aware Loss Function with Fourier Descriptors [1.5659201748872393]
この研究は、FourierLossという新しい形状認識損失関数を導入しました。
これは、地上の真実と予測されたセグメンテーションマップの間の形状の相違に依拠し、それらのオブジェクト上で計算されたフーリエ記述子を通し、ネットワークトレーニングにおけるこの相違を罰する。
提案した形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
論文 参考訳(メタデータ) (2023-09-21T14:23:10Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - A Systematic Performance Analysis of Deep Perceptual Loss Networks: Breaking Transfer Learning Conventions [5.470136744581653]
ディープ・パーセプチュアル・ロス(英: Deep Perceptual Los)とは、2つの画像間の誤差をニューラルネットワークから抽出したディープ・特徴間の距離として計算する画像のロス関数の一種である。
本研究は,4つの異なるアプリケーション領域における事前学習損失ネットワークの効果を評価する。
論文 参考訳(メタデータ) (2023-02-08T13:08:51Z) - DTU-Net: Learning Topological Similarity for Curvilinear Structure
Segmentation [2.9398911304923447]
本稿では,2つの重み付きU-Netからなる2重デコーダとトポロジ対応ディープニューラルネットワークDTU-Netを提案する。
テクスチャネットは、画像テクスチャ情報を用いて粗い予測を行う。
トポロジネットは、誤りとミスの分割を認識するために訓練された三重項損失を用いることで、粗い予測からトポロジ情報を学習する。
論文 参考訳(メタデータ) (2022-05-23T08:15:26Z) - Contrastive Learning for Label-Efficient Semantic Segmentation [44.10416030868873]
Convolutional Neural Network(CNN)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きデータを使用して印象的な結果を達成しました。
事実上のクロスエントロピー損失でトレーニングされたディープCNNは、少量のラベル付きデータに容易に適合する。
簡便で効果的な対比学習型トレーニング戦略を提案し、まずはピクセル単位のラベルベースの対比損失を用いてネットワークを前訓練します。
論文 参考訳(メタデータ) (2020-12-13T07:05:39Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Perceptually Optimizing Deep Image Compression [53.705543593594285]
平均二乗誤差(MSE)と$ell_p$ノルムは、ニューラルネットワークの損失の測定で大きく支配されている。
本稿では,定量的知覚モデルに対して,画像解析ネットワークを最適化するための異なるプロキシ手法を提案する。
論文 参考訳(メタデータ) (2020-07-03T14:33:28Z) - On the Predictability of Pruning Across Scales [29.94870276983399]
等級決定ネットワークの誤差は、アーキテクチャやタスクに依存する解釈可能な係数を持つスケーリング法則を経験的に従うことを示す。
ニューラルネットワークがより大きく、訓練にコストがかかるようになるにつれて、我々の発見は、非構造化プルーニングの標準的な方法に関する概念的かつ分析的な推論の枠組みを示唆している。
論文 参考訳(メタデータ) (2020-06-18T15:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。