論文の概要: Impression Space from Deep Template Network
- arxiv url: http://arxiv.org/abs/2007.05441v1
- Date: Fri, 10 Jul 2020 15:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:25:13.341107
- Title: Impression Space from Deep Template Network
- Title(参考訳): 深層テンプレートネットワークからの印象空間
- Authors: Gongfan Fang, Xinchao Wang, Haofei Zhang, Jie Song, Mingli Song
- Abstract要約: トレーニングされた畳み込みニューラルネットワークは、入力イメージを“記憶”する能力を持っていることを示す。
本稿では,既訓練の既訓練ネットワーク上でのEmphImpression Spaceを確立するためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 72.86001835304185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is an innate ability for humans to imagine something only according to
their impression, without having to memorize all the details of what they have
seen. In this work, we would like to demonstrate that a trained convolutional
neural network also has the capability to "remember" its input images. To
achieve this, we propose a simple but powerful framework to establish an
{\emph{Impression Space}} upon an off-the-shelf pretrained network. This
network is referred to as the {\emph{Template Network}} because its filters
will be used as templates to reconstruct images from the impression. In our
framework, the impression space and image space are bridged by a layer-wise
encoding and iterative decoding process. It turns out that the impression space
indeed captures the salient features from images, and it can be directly
applied to tasks such as unpaired image translation and image synthesis through
impression matching without further network training. Furthermore, the
impression naturally constructs a high-level common space for different data.
Based on this, we propose a mechanism to model the data relations inside the
impression space, which is able to reveal the feature similarity between
images. Our code will be released.
- Abstract(参考訳): 人間は、自分が見たものの詳細をすべて覚えることなく、印象によってのみ何かを想像する能力である。
この研究では、トレーニングされた畳み込みニューラルネットワークが、入力イメージを"記憶"する能力も持っていることを実証したい。
そこで本研究では,既設の既設ネットワーク上でのemph{Impression Space}}を確立するための,シンプルかつ強力なフレームワークを提案する。
このネットワークは、フィルタが印象からイメージを再構成するテンプレートとして使用されるため、 {\emph{Template Network}}と呼ばれる。
提案手法では,インプレッション空間と画像空間は階層符号化と反復復号プロセスによって橋渡しされる。
その結果, 印象空間は画像から有意な特徴を捉えることができ, ネットワークトレーニングを必要とせず, 印象マッチングによる画像翻訳や画像合成といったタスクに直接適用できることがわかった。
さらに、印象は自然に異なるデータに対して高いレベルの共通空間を構成する。
そこで本研究では,印象空間内のデータ関係をモデル化し,画像間の特徴的類似性を明らかにする機構を提案する。
私たちのコードはリリースされます。
関連論文リスト
- Diffusion Hyperfeatures: Searching Through Time and Space for Semantic Correspondence [88.00004819064672]
Diffusion Hyperfeaturesは、マルチスケールおよびマルチタイムステップの機能マップをピクセル単位の機能記述子に統合するためのフレームワークである。
提案手法は,SPair-71k実画像ベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - A Deep Learning-based Compression and Classification Technique for Whole
Slide Histopathology Images [0.31498833540989407]
我々は、ニューラルネットワークのアンサンブルを構築し、圧縮オートエンコーダを教師付き方式で、入力されたヒストロジー画像のより密度が高くより意味のある表現を維持することができる。
転送学習に基づく分類器を用いて圧縮画像を検証し、有望な精度と分類性能を示すことを示す。
論文 参考訳(メタデータ) (2023-05-11T22:20:05Z) - SparseFormer: Sparse Visual Recognition via Limited Latent Tokens [30.494412497158237]
本稿では,人間のスパース認識をエンドツーエンドに模倣する新しい手法であるスパースホルダーを提案する。
SparseFormerは画像空間上の高密度な操作の多くを回避し、計算コストを大幅に削減する。
ImageNet分類ベンチマークデータセットの実験では、SparseFormerは標準モデルや確立されたモデルと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-04-07T17:59:58Z) - Sketch-Guided Text-to-Image Diffusion Models [57.12095262189362]
本稿では,事前訓練されたテキスト-画像拡散モデルを示す普遍的なアプローチを提案する。
本手法では,タスク専用のモデルや専用エンコーダをトレーニングする必要はない。
我々は、スケッチ・ツー・イメージの翻訳タスクに特に焦点をあて、画像を生成する堅牢で表現力のある方法を明らかにする。
論文 参考訳(メタデータ) (2022-11-24T18:45:32Z) - Spiking sampling network for image sparse representation and dynamic
vision sensor data compression [0.0]
スパース表現は、ストレージのリソースを大幅に節約し、低次元空間におけるデータの代表的な特徴を見つけることができるため、大きな注目を集めている。
本稿では,スパイクサンプリングネットワークを提案する。
このネットワークはスパイクニューロンで構成されており、どのピクセルポイントを保持すべきか、どのピクセルポイントを入力に応じてマスクする必要があるのかを動的に決定することができる。
論文 参考訳(メタデータ) (2022-11-08T11:11:10Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。