論文の概要: Ensembling Framework for Texture Extraction Techniques for
Classification
- arxiv url: http://arxiv.org/abs/2206.04158v1
- Date: Wed, 8 Jun 2022 20:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 05:24:33.771219
- Title: Ensembling Framework for Texture Extraction Techniques for
Classification
- Title(参考訳): 分類のためのテクスチャ抽出のための組立フレームワーク
- Authors: Vijay Pandey, Mayank Gubba, Mohammed Faisal, Trapti Kalra
- Abstract要約: 本稿では,テクスチャの特徴を抽出する既存の手法を組み合わせたフレームワークを提案する。
提案フレームワークはテクスチャタイプの大部分で有効であり,本フレームワークでは,既存のフレームワークよりも優れた結果を得るために,新たなテクニックを追加することもできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past few years, texture-based classification problems have proven
their significance in many domains, from industrial inspection to
health-related applications. New techniques and CNN-based architectures have
been developed in recent years to solve texture-based classification problems.
The limitation of these approaches is that none of them claims to be the best
suited for all types of textures. Each technique has its advantage over a
specific texture type. To address this issue, we are proposing a framework that
combines existing techniques to extract texture features and displays better
results than the present ones. The proposed framework works well on the most of
the texture types, and in this framework, new techniques can also be added to
achieve better results than existing ones. We are also presenting the SOTA
results on FMD and KTH datasets by combining three existing techniques, using
the proposed framework.
- Abstract(参考訳): 過去数年間、テクスチャに基づく分類問題は、産業検査から健康関連アプリケーションまで、多くの領域でその重要性が証明されてきた。
近年,テクスチャベースの分類問題を解決するため,新しい技術やCNNベースのアーキテクチャが開発されている。
これらのアプローチの限界は、いずれもあらゆる種類のテクスチャに最も適していると主張するものではないことである。
それぞれのテクニックは、特定のテクスチャタイプよりも有利です。
この問題に対処するため,既存の手法を組み合わせてテクスチャの特徴を抽出し,より優れた結果を提示するフレームワークを提案する。
提案フレームワークはテクスチャタイプの大部分で有効であり,本フレームワークでは既存のフレームワークよりも優れた結果を得るために,新たなテクニックを追加することもできる。
また,提案フレームワークを用いて,既存の3つの手法を組み合わせることで,FMDおよびKTHデータセット上でのSOTA結果も提示する。
関連論文リスト
- RoCoTex: A Robust Method for Consistent Texture Synthesis with Diffusion Models [3.714901836138171]
メッシュに整合した一貫性とシームレスなテクスチャを生成するための頑健なテキスト・ツー・テクスチャ手法を提案する。
本手法では,SDXLや複数制御ネットなどの最先端2次元拡散モデルを用いて,構造的特徴を捉えるとともに,テクスチャの複雑な詳細を抽出する。
論文 参考訳(メタデータ) (2024-09-30T06:29:50Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TexRO: Generating Delicate Textures of 3D Models by Recursive Optimization [54.59133974444805]
TexROは、UVテクスチャを最適化することで、既知の3Dメッシュの繊細なテクスチャを生成する新しい方法である。
テクスチャ品質,ディテール保存,視覚的一貫性,特に実行速度の観点から,TexROの優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-22T07:45:51Z) - Enhancing Texture Generation with High-Fidelity Using Advanced Texture
Priors [1.4542583614606408]
粗いテクスチャを初期入力として利用する高分解能で高忠実なテクスチャ復元手法を提案する。
また,現在の高分解能テクスチャ合成方式におけるノイズ問題に対処する自己教師型スキームに基づく背景雑音平滑化手法を提案する。
本手法により,高分解能なテクスチャ合成が可能となり,高精細テクスチャ合成技術への道が開かれた。
論文 参考訳(メタデータ) (2024-03-08T07:07:28Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Texture image analysis based on joint of multi directions GLCM and local
ternary patterns [0.0]
テクスチャ機能は、通勤視覚や機械学習問題において、多くの異なるアプリケーションで使用することができる。
2つのテクスチャ記述子、共起行列と局所三元パターンを組み合わせた新しい手法を提案する。
実験の結果,提案手法はいくつかの最先端手法と比較して高い分類率を示すことがわかった。
論文 参考訳(メタデータ) (2022-09-05T09:53:00Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。