論文の概要: IICNet: A Generic Framework for Reversible Image Conversion
- arxiv url: http://arxiv.org/abs/2109.04242v1
- Date: Thu, 9 Sep 2021 13:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:14:30.005266
- Title: IICNet: A Generic Framework for Reversible Image Conversion
- Title(参考訳): IICNet: 可逆画像変換のためのジェネリックフレームワーク
- Authors: Ka Leong Cheng and Yueqi Xie and Qifeng Chen
- Abstract要約: Reversible Image conversion (RIC) は、特定の視覚コンテンツ(例えばショートビデオ)と埋め込み画像の間の可逆変換を構築することを目的としている。
Invertible Image Conversion Net (IICNet) は、強力な容量とタスクに依存しない設計のため、様々なRICタスクに対する汎用的なソリューションである。
- 参考スコア(独自算出の注目度): 40.21904131503064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reversible image conversion (RIC) aims to build a reversible transformation
between specific visual content (e.g., short videos) and an embedding image,
where the original content can be restored from the embedding when necessary.
This work develops Invertible Image Conversion Net (IICNet) as a generic
solution to various RIC tasks due to its strong capacity and task-independent
design. Unlike previous encoder-decoder based methods, IICNet maintains a
highly invertible structure based on invertible neural networks (INNs) to
better preserve the information during conversion. We use a relation module and
a channel squeeze layer to improve the INN nonlinearity to extract cross-image
relations and the network flexibility, respectively. Experimental results
demonstrate that IICNet outperforms the specifically-designed methods on
existing RIC tasks and can generalize well to various newly-explored tasks.
With our generic IICNet, we no longer need to hand-engineer task-specific
embedding networks for rapidly occurring visual content. Our source codes are
available at: https://github.com/felixcheng97/IICNet.
- Abstract(参考訳): 可逆画像変換(RIC)は、特定の視覚コンテンツ(例えば、ショートビデオ)と埋め込み画像の間の可逆変換を構築することを目的としており、必要に応じて元のコンテンツを埋め込みから復元することができる。
Invertible Image Conversion Net (IICNet) は、強力な容量とタスクに依存しない設計のため、様々なRICタスクに対する汎用的なソリューションである。
従来のエンコーダ-デコーダベースの方法とは異なり、iicnetはインバータブルニューラルネットワーク(inn)に基づいた高度に可逆的な構造を維持し、変換中に情報を保存する。
INNの非線形性を改善するために,関係モジュールとチャネルスレッシャー層を用いて,相互関係とネットワークの柔軟性を抽出する。
実験の結果, IICNet は既存の RIC タスクで特別に設計された手法よりも優れており, 新たに探索されたタスクによく対応できることがわかった。
汎用的なiicnetでは、急速に発生するビジュアルコンテンツのためにタスク固有の埋め込みネットワークを手作業で設計する必要がなくなりました。
ソースコードはhttps://github.com/felixcheng97/iicnet。
関連論文リスト
- Multiscale Low-Frequency Memory Network for Improved Feature Extraction
in Convolutional Neural Networks [13.815116154370834]
本稿では,Multiscale Low-Frequency Memory (MLFM) Networkを提案する。
MLFMは低周波情報を効率よく保存し、目標とするコンピュータビジョンタスクの性能を向上させる。
我々の研究は、既存のCNN基盤の上に構築され、コンピュータビジョンの今後の進歩の道を開く。
論文 参考訳(メタデータ) (2024-03-13T00:48:41Z) - Adaptive Convolutional Neural Network for Image Super-resolution [43.06377001247278]
画像超解像のための適応畳み込みニューラルネットワーク(ADSRNet)を提案する。
上層ネットワークは、コンテキスト情報、カーネルマッピングの健全な情報関係、浅い層と深い層の関連性を高めることができる。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - Image Captioning In the Transformer Age [71.06437715212911]
Image Captioning (IC)は、CNN-RNNエンコーダ・デコーダアーキテクチャに様々な技術を統合することで驚くべき発展を遂げた。
本稿では,ICと一般的な自己教師型学習パラダイムの関連性について分析する。
論文 参考訳(メタデータ) (2022-04-15T08:13:39Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。