論文の概要: Hierarchical Material Recognition from Local Appearance
- arxiv url: http://arxiv.org/abs/2505.22911v1
- Date: Wed, 28 May 2025 22:20:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.565905
- Title: Hierarchical Material Recognition from Local Appearance
- Title(参考訳): 局所的外観からの階層的材料認識
- Authors: Matthew Beveridge, Shree K. Nayar,
- Abstract要約: 地域の外観から階層的認識のための材料分類を導入する。
分類学クラスの画像と深度マップを組み込んだ多種多様なアプリ内データセットをコントリビュートする。
本稿では,グラフアテンションネットワークに基づく階層的材料認識手法を提案する。
- 参考スコア(独自算出の注目度): 6.790905400046194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a taxonomy of materials for hierarchical recognition from local appearance. Our taxonomy is motivated by vision applications and is arranged according to the physical traits of materials. We contribute a diverse, in-the-wild dataset with images and depth maps of the taxonomy classes. Utilizing the taxonomy and dataset, we present a method for hierarchical material recognition based on graph attention networks. Our model leverages the taxonomic proximity between classes and achieves state-of-the-art performance. We demonstrate the model's potential to generalize to adverse, real-world imaging conditions, and that novel views rendered using the depth maps can enhance this capability. Finally, we show the model's capacity to rapidly learn new materials in a few-shot learning setting.
- Abstract(参考訳): 地域の外観から階層的認識のための材料分類を導入する。
我々の分類学は視覚的応用によって動機付けられ、材料の物理的特性に応じて配列される。
分類学クラスの画像と深度マップを組み込んだ多種多様なアプリ内データセットをコントリビュートする。
分類とデータセットを用いて,グラフアテンションネットワークに基づく階層的物質認識手法を提案する。
我々のモデルは、クラス間の分類学的近接を利用して、最先端のパフォーマンスを達成する。
モデルが悪質な実世界の撮像条件に一般化する可能性を実証し、深度マップを用いて表現された新しいビューにより、この能力を向上できることを示す。
最後に,数ショットの学習環境において,新しい素材を迅速に学習する能力を示す。
関連論文リスト
- Analyzing Hierarchical Structure in Vision Models with Sparse Autoencoders [6.7161402871287645]
ImageNet階層は、オブジェクトカテゴリの構造的な分類を提供し、ディープビジョンモデルによって学習された表現を分析するための貴重なレンズを提供する。
本研究では,視覚モデルがイメージネット階層をエンコードする方法を包括的に分析し,スパースオートエンコーダ(SAE)を用いて内部表現を探索する。
論文 参考訳(メタデータ) (2025-05-21T19:38:48Z) - Do I look like a `cat.n.01` to you? A Taxonomy Image Generation Benchmark [63.97125827026949]
本稿では、ゼロショット設定でテキスト・ツー・イメージ・モデルを用いて分類概念の画像を生成する可能性について検討する。
分類概念を理解し、関連する高品質の画像を生成するモデルの能力を評価するベンチマークが提案されている。
9つの新しい分類関連テキスト・ツー・イメージ・メトリクスと人間のフィードバックを用いて12のモデルを評価した。
論文 参考訳(メタデータ) (2025-03-13T13:37:54Z) - Connectivity-Inspired Network for Context-Aware Recognition [1.049712834719005]
視覚認知に対処するために,生体脳の回路モチーフを取り入れることの効果に焦点をあてる。
私たちの畳み込みアーキテクチャは、人間の皮質と皮質下の流れの接続にインスパイアされています。
我々はコンテキスト認識をモデル化するための新しいプラグイン・アンド・プレイ・モジュールを提案する。
論文 参考訳(メタデータ) (2024-09-06T15:42:10Z) - A Hierarchical Architecture for Neural Materials [13.144139872006287]
我々は新しいレベルの精度を提供するニューラルな外観モデルを導入する。
インセプションベースのコアネットワーク構造は、複数のスケールで素材の外観をキャプチャする。
入力を周波数空間にエンコードし、勾配に基づく損失を導入し、学習フェーズの進行に適応させる。
論文 参考訳(メタデータ) (2023-07-19T17:00:45Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Taxonomy Enrichment with Text and Graph Vector Representations [61.814256012166794]
我々は,既存の分類学に新たな語を加えることを目的とした分類学の豊かさの問題に対処する。
我々は,この課題に対して,少ない労力で高い結果を得られる新しい手法を提案する。
我々は、異なるデータセットにわたる最先端の結果を達成し、ミスの詳細なエラー分析を提供する。
論文 参考訳(メタデータ) (2022-01-21T09:01:12Z) - Polynomial Networks in Deep Classifiers [55.90321402256631]
我々は深層ニューラルネットワークの研究を統一的な枠組みで行った。
私たちのフレームワークは、各モデルの誘導バイアスに関する洞察を提供します。
提案モデルの有効性を,標準画像および音声分類ベンチマークで評価した。
論文 参考訳(メタデータ) (2021-04-16T06:41:20Z) - All About Knowledge Graphs for Actions [82.39684757372075]
ゼロショットと少数ショットのアクション認識に使用できる知識グラフ(KG)の理解を深める。
KGsの3つの異なる構成機構について検討した。
異なる実験装置に対する異なるKGの影響を広範囲に解析する。
論文 参考訳(メタデータ) (2020-08-28T01:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。