論文の概要: Fabric Surface Characterization: Assessment of Deep Learning-based
Texture Representations Using a Challenging Dataset
- arxiv url: http://arxiv.org/abs/2003.07725v1
- Date: Mon, 16 Mar 2020 05:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 04:00:24.925115
- Title: Fabric Surface Characterization: Assessment of Deep Learning-based
Texture Representations Using a Challenging Dataset
- Title(参考訳): ファブリック表面のキャラクタリゼーション:チェアリングデータセットを用いた深層学習に基づくテクスチャ表現の評価
- Authors: Yuting Hu, Zhiling Long, Anirudha Sundaresan, Motaz Alfarraj, Ghassan
AlRegib, Sungmee Park, and Sundaresan Jayaraman
- Abstract要約: 我々は、大規模で挑戦的な顕微鏡材料表面データセット(CoMMonS)を導入する。
次に,CoMMonSを用いたテクスチャ分類のための最先端深層学習手法の総合評価を行う。
以上の結果から,Multerは材料評価のためのCoMMonSデータセットだけでなく,MINC-2500やGTOS-mobileなどの既存のデータセットにも高い精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 12.747154890227721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensing or fabric hand plays a critical role in an individual's
decision to buy a certain fabric from the range of available fabrics for a
desired application. Therefore, textile and clothing manufacturers have long
been in search of an objective method for assessing fabric hand, which can then
be used to engineer fabrics with a desired hand. Recognizing textures and
materials in real-world images has played an important role in object
recognition and scene understanding. In this paper, we explore how to
computationally characterize apparent or latent properties (e.g., surface
smoothness) of materials, i.e., computational material surface
characterization, which moves a step further beyond material recognition. We
formulate the problem as a very fine-grained texture classification problem,
and study how deep learning-based texture representation techniques can help
tackle the task. We introduce a new, large-scale challenging microscopic
material surface dataset (CoMMonS), geared towards an automated fabric quality
assessment mechanism in an intelligent manufacturing system. We then conduct a
comprehensive evaluation of state-of-the-art deep learning-based methods for
texture classification using CoMMonS. Additionally, we propose a multi-level
texture encoding and representation network (MuLTER), which simultaneously
leverages low- and high-level features to maintain both texture details and
spatial information in the texture representation. Our results show that, in
comparison with the state-of-the-art deep texture descriptors, MuLTER yields
higher accuracy not only on our CoMMonS dataset for material characterization,
but also on established datasets such as MINC-2500 and GTOS-mobile for material
recognition.
- Abstract(参考訳): 触覚またはファブリックハンドは、希望する用途のために利用可能なファブリックの範囲から特定のファブリックを購入するという個人の決定において重要な役割を果たす。
そのため、布地や衣料品のメーカーは長年、所望の手で織物を加工できる布地手を評価する客観的な方法を模索してきた。
現実画像におけるテクスチャや素材の認識は,物体認識やシーン理解において重要な役割を担っている。
本稿では, 物質認識を超越した計算材料表面のキャラクタリゼーションとして, 材料の見かけ的あるいは潜在的な特性(表面平滑性など)を計算的に特徴付ける方法を検討する。
この問題を, きめ細かいテクスチャ分類問題として定式化し, 深層学習に基づくテクスチャ表現技術が課題にどう取り組むかを検討する。
知的製造システムにおける繊維品質自動評価機構を指向した,大規模で挑戦的な顕微鏡材料表面データセット(CoMMonS)を導入する。
次に,CoMMonSを用いたテクスチャ分類のための最先端深層学習手法の総合評価を行う。
さらに,マルチレベルテクスチャエンコーディング・表現ネットワーク (multer) を提案する。このネットワークでは,テクスチャの詳細とテクスチャ表現における空間情報の両方を維持するために,低レベルと高レベルを同時に利用する。
その結果,最新の深層テクスチャ記述子と比較して,multerは材料特性評価のためのcommonsデータセットだけでなく,minc-2500やgtos-mobileのような確立されたデータセットでも高い精度が得られることがわかった。
関連論文リスト
- On Synthetic Texture Datasets: Challenges, Creation, and Curation [1.9567015559455132]
56のテクスチャにまたがる362,880のテクスチャイメージのデータセットを作成します。
画像生成過程において,画像生成パイプライン内のNSFW安全フィルタはテクスチャに非常に敏感であることがわかった。
論文 参考訳(メタデータ) (2024-09-16T14:02:18Z) - TexTile: A Differentiable Metric for Texture Tileability [10.684366243276198]
テクスチャ画像がそれ自身でベッドできる程度を定量化するための、新しい微分可能な計量であるTexTileを紹介する。
タイル状テクスチャ合成の既存の方法は、一般的なテクスチャの品質に焦点をあてるが、テクスチャの本質的な特性の明示的な分析は欠如している。
論文 参考訳(メタデータ) (2024-03-19T17:59:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Structural and Statistical Texture Knowledge Distillation for Semantic
Segmentation [72.67912031720358]
セグメンテーションのための構造的・統計的テクスチャ知識蒸留(SSTKD)フレームワークを提案する。
構造的テクスチャ知識のために,低レベルの特徴を分解するContourlet Decomposition Module (CDM)を導入する。
本稿では, 統計的テクスチャ知識を適応的に抽出し, 強化するDenoized Texture Intensity Equalization Module (DTIEM)を提案する。
論文 参考訳(メタデータ) (2023-05-06T06:01:11Z) - Development and Evaluation of a Learning-based Model for Real-time Haptic Texture Rendering [23.078251379039987]
触覚テクスチャレンダリングのための学習に基づく行動条件モデルを提案する。
提案手法は,最先端手法に匹敵する,あるいは高品質な高周波数テクスチャレンダリングを実現する。
論文 参考訳(メタデータ) (2022-12-27T01:06:26Z) - Towards Multidimensional Textural Perception and Classification Through
Whisker [0.0]
ウィスカーベースの多次元表面テクスチャデータが欠落している。
多次元テクスチャ情報を取得するための新しいセンサ設計を提案する。
センサは、粗さが2.5mu m$以下のテクスチャを90%以上の精度で分類できることを実験的に検証した。
論文 参考訳(メタデータ) (2022-09-01T11:14:17Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z) - Retinal Image Segmentation with a Structure-Texture Demixing Network [62.69128827622726]
複雑な構造とテクスチャ情報は網膜画像に混在し、その情報の識別が困難である。
既存の手法はテクスチャと構造を共同で扱うため、偏りのあるモデルをテクスチャ認識に導くことができ、結果としてセグメンテーション性能は低下する。
本稿では,構造成分とテクスチャ成分を分離し,性能を大幅に向上させるセグメンテーション戦略を提案する。
論文 参考訳(メタデータ) (2020-07-15T12:19:03Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。