論文の概要: Fabric Surface Characterization: Assessment of Deep Learning-based
Texture Representations Using a Challenging Dataset
- arxiv url: http://arxiv.org/abs/2003.07725v1
- Date: Mon, 16 Mar 2020 05:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 04:00:24.925115
- Title: Fabric Surface Characterization: Assessment of Deep Learning-based
Texture Representations Using a Challenging Dataset
- Title(参考訳): ファブリック表面のキャラクタリゼーション:チェアリングデータセットを用いた深層学習に基づくテクスチャ表現の評価
- Authors: Yuting Hu, Zhiling Long, Anirudha Sundaresan, Motaz Alfarraj, Ghassan
AlRegib, Sungmee Park, and Sundaresan Jayaraman
- Abstract要約: 我々は、大規模で挑戦的な顕微鏡材料表面データセット(CoMMonS)を導入する。
次に,CoMMonSを用いたテクスチャ分類のための最先端深層学習手法の総合評価を行う。
以上の結果から,Multerは材料評価のためのCoMMonSデータセットだけでなく,MINC-2500やGTOS-mobileなどの既存のデータセットにも高い精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 12.747154890227721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensing or fabric hand plays a critical role in an individual's
decision to buy a certain fabric from the range of available fabrics for a
desired application. Therefore, textile and clothing manufacturers have long
been in search of an objective method for assessing fabric hand, which can then
be used to engineer fabrics with a desired hand. Recognizing textures and
materials in real-world images has played an important role in object
recognition and scene understanding. In this paper, we explore how to
computationally characterize apparent or latent properties (e.g., surface
smoothness) of materials, i.e., computational material surface
characterization, which moves a step further beyond material recognition. We
formulate the problem as a very fine-grained texture classification problem,
and study how deep learning-based texture representation techniques can help
tackle the task. We introduce a new, large-scale challenging microscopic
material surface dataset (CoMMonS), geared towards an automated fabric quality
assessment mechanism in an intelligent manufacturing system. We then conduct a
comprehensive evaluation of state-of-the-art deep learning-based methods for
texture classification using CoMMonS. Additionally, we propose a multi-level
texture encoding and representation network (MuLTER), which simultaneously
leverages low- and high-level features to maintain both texture details and
spatial information in the texture representation. Our results show that, in
comparison with the state-of-the-art deep texture descriptors, MuLTER yields
higher accuracy not only on our CoMMonS dataset for material characterization,
but also on established datasets such as MINC-2500 and GTOS-mobile for material
recognition.
- Abstract(参考訳): 触覚またはファブリックハンドは、希望する用途のために利用可能なファブリックの範囲から特定のファブリックを購入するという個人の決定において重要な役割を果たす。
そのため、布地や衣料品のメーカーは長年、所望の手で織物を加工できる布地手を評価する客観的な方法を模索してきた。
現実画像におけるテクスチャや素材の認識は,物体認識やシーン理解において重要な役割を担っている。
本稿では, 物質認識を超越した計算材料表面のキャラクタリゼーションとして, 材料の見かけ的あるいは潜在的な特性(表面平滑性など)を計算的に特徴付ける方法を検討する。
この問題を, きめ細かいテクスチャ分類問題として定式化し, 深層学習に基づくテクスチャ表現技術が課題にどう取り組むかを検討する。
知的製造システムにおける繊維品質自動評価機構を指向した,大規模で挑戦的な顕微鏡材料表面データセット(CoMMonS)を導入する。
次に,CoMMonSを用いたテクスチャ分類のための最先端深層学習手法の総合評価を行う。
さらに,マルチレベルテクスチャエンコーディング・表現ネットワーク (multer) を提案する。このネットワークでは,テクスチャの詳細とテクスチャ表現における空間情報の両方を維持するために,低レベルと高レベルを同時に利用する。
その結果,最新の深層テクスチャ記述子と比較して,multerは材料特性評価のためのcommonsデータセットだけでなく,minc-2500やgtos-mobileのような確立されたデータセットでも高い精度が得られることがわかった。
関連論文リスト
- NeRF-Texture: Synthesizing Neural Radiance Field Textures [77.24205024987414]
与えられた多視点画像からテクスチャを捕捉・合成するためのニューラルレージアンス場(NeRF)を用いた新しいテクスチャ合成法を提案する。
提案したNeRFテクスチャ表現では、微細な幾何学的詳細を持つシーンをメソ構造テクスチャと基盤形状に分割する。
我々は潜伏特徴のパッチマッチングによってNeRFベースのテクスチャを合成できる。
論文 参考訳(メタデータ) (2024-12-13T09:41:48Z) - Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - On Synthetic Texture Datasets: Challenges, Creation, and Curation [1.9567015559455132]
56のテクスチャにまたがる362,880のテクスチャイメージのデータセットを作成します。
画像生成過程において,画像生成パイプライン内のNSFW安全フィルタはテクスチャに非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-09-16T14:02:18Z) - TexTile: A Differentiable Metric for Texture Tileability [10.684366243276198]
テクスチャ画像がそれ自身でベッドできる程度を定量化するための、新しい微分可能な計量であるTexTileを紹介する。
タイル状テクスチャ合成の既存の方法は、一般的なテクスチャの品質に焦点をあてるが、テクスチャの本質的な特性の明示的な分析は欠如している。
論文 参考訳(メタデータ) (2024-03-19T17:59:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Structural and Statistical Texture Knowledge Distillation for Semantic
Segmentation [72.67912031720358]
セグメンテーションのための構造的・統計的テクスチャ知識蒸留(SSTKD)フレームワークを提案する。
構造的テクスチャ知識のために,低レベルの特徴を分解するContourlet Decomposition Module (CDM)を導入する。
本稿では, 統計的テクスチャ知識を適応的に抽出し, 強化するDenoized Texture Intensity Equalization Module (DTIEM)を提案する。
論文 参考訳(メタデータ) (2023-05-06T06:01:11Z) - Development and Evaluation of a Learning-based Model for Real-time Haptic Texture Rendering [23.078251379039987]
触覚テクスチャレンダリングのための学習に基づく行動条件モデルを提案する。
提案手法は,最先端手法に匹敵する,あるいは高品質な高周波数テクスチャレンダリングを実現する。
論文 参考訳(メタデータ) (2022-12-27T01:06:26Z) - Towards Multidimensional Textural Perception and Classification Through
Whisker [0.0]
ウィスカーベースの多次元表面テクスチャデータが欠落している。
多次元テクスチャ情報を取得するための新しいセンサ設計を提案する。
センサは、粗さが2.5mu m$以下のテクスチャを90%以上の精度で分類できることを実験的に検証した。
論文 参考訳(メタデータ) (2022-09-01T11:14:17Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。