論文の概要: RADAM: Texture Recognition through Randomized Aggregated Encoding of
Deep Activation Maps
- arxiv url: http://arxiv.org/abs/2303.04554v1
- Date: Wed, 8 Mar 2023 13:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 14:03:24.310488
- Title: RADAM: Texture Recognition through Randomized Aggregated Encoding of
Deep Activation Maps
- Title(参考訳): RADAM:Deep Activation Mapsのランダム化集約符号化によるテクスチャ認識
- Authors: Leonardo Scabini, Kallil M. Zielinski, Lucas C. Ribas, Wesley N.
Gon\c{c}alves, Bernard De Baets, Odemir M. Bruno
- Abstract要約: textbfAggregated textbfDeep textbfActivation textbfMaps (RADAM) の textbfRandom 符号化法を提案する。
RADAMはバックボーンを変更することなくリッチなテクスチャ表現を抽出する。
以上の結果から,事前学習したバックボーンは,学習した表現がよりうまく符号化された場合,テクスチャ認識のための微調整を必要としない可能性が示唆された。
- 参考スコア(独自算出の注目度): 12.35895883721336
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Texture analysis is a classical yet challenging task in computer vision for
which deep neural networks are actively being applied. Most approaches are
based on building feature aggregation modules around a pre-trained backbone and
then fine-tuning the new architecture on specific texture recognition tasks.
Here we propose a new method named \textbf{R}andom encoding of
\textbf{A}ggregated \textbf{D}eep \textbf{A}ctivation \textbf{M}aps (RADAM)
which extracts rich texture representations without ever changing the backbone.
The technique consists of encoding the output at different depths of a
pre-trained deep convolutional network using a Randomized Autoencoder (RAE).
The RAE is trained locally to each image using a closed-form solution, and its
decoder weights are used to compose a 1-dimensional texture representation that
is fed into a linear SVM. This means that no fine-tuning or backpropagation is
needed. We explore RADAM on several texture benchmarks and achieve
state-of-the-art results with different computational budgets. Our results
suggest that pre-trained backbones may not require additional fine-tuning for
texture recognition if their learned representations are better encoded.
- Abstract(参考訳): テクスチャ分析は、ディープニューラルネットワークが積極的に適用されているコンピュータビジョンにおいて、古典的だが挑戦的なタスクである。
ほとんどのアプローチは、事前トレーニングされたバックボーンの周りにフィーチャーアグリゲーションモジュールを構築し、特定のテクスチャ認識タスクで新しいアーキテクチャを微調整することに基づいている。
本稿では,背骨を変更せずにリッチなテクスチャ表現を抽出する,textbf{R}andom encoding of \textbf{A}ggregated \textbf{D}eep \textbf{A}ctivation \textbf{M}aps (RADAM)を提案する。
この技術は、ランダム化オートエンコーダ(RAE)を用いて、事前訓練された深層畳み込みネットワークの異なる深さで出力を符号化する。
RAEは閉形式解を用いて各画像に局所的にトレーニングされ、そのデコーダ重みは線形SVMに入力される1次元テクスチャ表現を構成するために使用される。
つまり、微調整やバックプロパゲーションは不要である。
いくつかのテクスチャベンチマークでRADAMを探索し、様々な計算予算で最先端の結果を得る。
以上の結果から,事前学習したバックボーンは,学習した表現がよりうまく符号化された場合,テクスチャ認識のための微調整を必要としない可能性が示唆された。
関連論文リスト
- Neural Graphics Texture Compression Supporting Random Access [34.974631096947284]
本稿では,従来のGPUテクスチャ表現とNIC技術を統合したテクスチャセット圧縮手法を提案する。
本稿では、畳み込みエンコーダを用いた非対称自動エンコーダフレームワークを提案する。
実験により,従来のテクスチャ圧縮よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2024-05-06T19:44:13Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - PixMIM: Rethinking Pixel Reconstruction in Masked Image Modeling [83.67628239775878]
Masked Image Modeling (MIM) は Masked Autoencoders (MAE) と BEiT の出現によって有望な進歩を遂げた。
本稿では,画素再構成の観点からMIMの基本解析を行う。
我々は,2つの戦略を包含する極めて単純で効果的な方法,weelmethodを提案する。
論文 参考訳(メタデータ) (2023-03-04T13:38:51Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Reconstructing vehicles from orthographic drawings using deep neural
networks [0.0]
本稿では,画素アラインな暗黙関数(PIFu)に基づくシステムを提案し,符号付き距離サンプルを生成するための高度なサンプリング手法を開発した。
トレーニングされたニューラルネットワークは、現実世界の入力をうまく一般化し、可塑性で詳細な再構築を生成する。
論文 参考訳(メタデータ) (2022-06-14T12:32:32Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - On Demand Solid Texture Synthesis Using Deep 3D Networks [3.1542695050861544]
本稿では,ディープラーニングフレームワークに基づくオンデマンドテクスチャ合成のための新しいアプローチについて述べる。
任意の大きさの固形テクスチャのコヒーレント部分を合成するために、生成ネットワークを訓練する。
合成されたボリュームは、少なくとも最先端のパッチベースのアプローチと同等の視覚的結果が得られる。
論文 参考訳(メタデータ) (2020-01-13T20:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。