論文の概要: Texture-guided Coding for Deep Features
- arxiv url: http://arxiv.org/abs/2405.19669v1
- Date: Thu, 30 May 2024 03:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 18:16:37.133092
- Title: Texture-guided Coding for Deep Features
- Title(参考訳): 深い特徴のためのテクスチャ誘導符号化
- Authors: Lei Xiong, Xin Luo, Zihao Wang, Chaofan He, Shuyuan Zhu, Bing Zeng,
- Abstract要約: 本稿では,特徴とテクスチャを考察し,その特徴に基づくテクスチャ誘導型特徴圧縮戦略を提案する。
この戦略は、特徴層とテクスチャ層から構成されており、特徴層は、特徴選択モジュールと特徴再構成ネットワークを含む、マシンを提供する。
テクスチャ画像の助けを借りて、視覚的なタスクに関連するチャンネルを選択的に圧縮し、送信し、特徴データを低減し、マシンに高品質な機能を提供する。
本手法は,テクスチャの特徴と特徴をフル活用し,特徴冗長性を排除し,人間の高品質なプレビュー画像を再構成し,意思決定を支援する。
- 参考スコア(独自算出の注目度): 33.05814372247946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of machine vision technology in recent years, many researchers have begun to focus on feature compression that is better suited for machine vision tasks. The target of feature compression is deep features, which arise from convolution in the middle layer of a pre-trained convolutional neural network. However, due to the large volume of data and high level of abstraction of deep features, their application is primarily limited to machine-centric scenarios, which poses significant constraints in situations requiring human-computer interaction. This paper investigates features and textures and proposes a texture-guided feature compression strategy based on their characteristics. Specifically, the strategy comprises feature layers and texture layers. The feature layers serve the machine, including a feature selection module and a feature reconstruction network. With the assistance of texture images, they selectively compress and transmit channels relevant to visual tasks, reducing feature data while providing high-quality features for the machine. The texture layers primarily serve humans and consist of an image reconstruction network. This image reconstruction network leverages features and texture images to reconstruct preview images for humans. Our method fully exploits the characteristics of texture and features. It eliminates feature redundancy, reconstructs high-quality preview images for humans, and supports decision-making. The experimental results demonstrate excellent performance when employing our proposed method to compress the deep features.
- Abstract(参考訳): 近年、機械ビジョン技術の急速な発展に伴い、多くの研究者が機械ビジョンタスクに適した特徴圧縮に焦点を合わせ始めている。
特徴圧縮のターゲットは、事前訓練された畳み込みニューラルネットワークの中層における畳み込みから生じる深い特徴である。
しかし、大量のデータと深い特徴の高レベルの抽象化のため、主にマシン中心のシナリオに限られており、人間とコンピュータの相互作用を必要とする状況では大きな制約が生じる。
本稿では,特徴とテクスチャを考察し,その特徴に基づくテクスチャ誘導型特徴圧縮戦略を提案する。
具体的には、その戦略は特徴層とテクスチャ層から構成される。
特徴層は、特徴選択モジュールと特徴再構成ネットワークを含むマシンに提供される。
テクスチャ画像の助けを借りて、視覚的なタスクに関連するチャンネルを選択的に圧縮し、送信し、特徴データを低減し、マシンに高品質な機能を提供する。
テクスチャ層は主に人間に仕え、画像再構成ネットワークから構成される。
この画像再構成ネットワークは、特徴とテクスチャ画像を活用して、ヒトのプレビュー画像の再構成を行う。
本手法はテクスチャの特徴と特徴を完全に活用する。
特徴の冗長性を排除し、人間の高品質なプレビュー画像を再構築し、意思決定をサポートする。
実験の結果,提案手法を用いて深部特徴を圧縮する際の優れた性能を示した。
関連論文リスト
- Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - Neural Graphics Texture Compression Supporting Random Acces [34.974631096947284]
本稿では,従来のGPUテクスチャ表現とNIC技術を統合したテクスチャセット圧縮手法を提案する。
本稿では、畳み込みエンコーダを用いた非対称自動エンコーダフレームワークを提案する。
実験により,従来のテクスチャ圧縮よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2024-05-06T19:44:13Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Video Coding for Machine: Compact Visual Representation Compression for
Intelligent Collaborative Analytics [101.35754364753409]
Video Coding for Machines (VCM) は、ビデオ/画像圧縮と特徴圧縮をある程度別々の研究トラックにブリッジすることを約束している。
本稿では,既存の学術・産業活動に基づくVCM方法論と哲学を要約する。
論文 参考訳(メタデータ) (2021-10-18T12:42:13Z) - Conceptual Compression via Deep Structure and Texture Synthesis [42.68994438290913]
本稿では,視覚データをコンパクトな構造とテクスチャ表現にエンコードし,深層合成方式でデコードする,新しい概念圧縮フレームワークを提案する。
特に,2つの相補的な視覚特徴からなる二重層モデルを用いて画像の圧縮を提案する。
エンコーダ側では、構造地図とテクスチャ表現を個別に抽出して圧縮し、コンパクトで解釈可能な、相互運用可能なビットストリームを生成する。
復号段階では, 階層的融合GAN (HF-GAN) が提案され, テクスチャがデコードされた構造写像に描画される合成パラダイムを学習し, 高品質な再構成を実現する。
論文 参考訳(メタデータ) (2020-11-10T08:48:32Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z) - Towards Coding for Human and Machine Vision: A Scalable Image Coding
Approach [104.02201472370801]
圧縮モデルと生成モデルの両方を活用することにより,新しい画像符号化フレームワークを考案した。
高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。
実験により、人間の視覚的品質と顔のランドマーク検出の両方において、我々の枠組みが優れていることが示された。
論文 参考訳(メタデータ) (2020-01-09T10:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。