論文の概要: Material Fingerprinting: Identifying and Predicting Perceptual Attributes of Material Appearance
- arxiv url: http://arxiv.org/abs/2410.13615v1
- Date: Thu, 17 Oct 2024 14:47:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:19:32.304652
- Title: Material Fingerprinting: Identifying and Predicting Perceptual Attributes of Material Appearance
- Title(参考訳): 材料フィンガープリント:材料外観の知覚属性の同定と予測
- Authors: Jiri Filip, Filip Dechterenko, Filipp Schmidt, Jiri Lukavsky, Veronika Vilimovska, Jan Kotera, Roland W. Fleming,
- Abstract要約: 本稿では,動的視覚刺激から得られる知覚的特徴を符号化することで,物質識別への新たなアプローチを提案する。
心理物理学的な実験を行い,347本の映像から得られた16個の重要な知覚特性を選定し,検証した。
次に、各材料について20人以上の被験者から属性評価を収集し、各材料固有の知覚特性を符号化する「材料指紋」を作成しました。
- 参考スコア(独自算出の注目度): 2.2284248642626103
- License:
- Abstract: The world is abundant with diverse materials, each possessing unique surface appearances that play a crucial role in our daily perception and understanding of their properties. Despite advancements in technology enabling the capture and realistic reproduction of material appearances for visualization and quality control, the interoperability of material property information across various measurement representations and software platforms remains a complex challenge. A key to overcoming this challenge lies in the automatic identification of materials' perceptual features, enabling intuitive differentiation of properties stored in disparate material data representations. We reasoned that for many practical purposes, a compact representation of the perceptual appearance is more useful than an exhaustive physical description.This paper introduces a novel approach to material identification by encoding perceptual features obtained from dynamic visual stimuli. We conducted a psychophysical experiment to select and validate 16 particularly significant perceptual attributes obtained from videos of 347 materials. We then gathered attribute ratings from over twenty participants for each material, creating a 'material fingerprint' that encodes the unique perceptual properties of each material. Finally, we trained a multi-layer perceptron model to predict the relationship between statistical and deep learning image features and their corresponding perceptual properties. We demonstrate the model's performance in material retrieval and filtering according to individual attributes. This model represents a significant step towards simplifying the sharing and understanding of material properties in diverse digital environments regardless of their digital representation, enhancing both the accuracy and efficiency of material identification.
- Abstract(参考訳): 世界は多種多様な材料が豊富にあり、それぞれが、我々の日々の認識とそれらの性質の理解に重要な役割を果たす独特の表面的外観を持っている。
可視化と品質管理のための材料外観のキャプチャと現実的な再現を可能にする技術の発展にもかかわらず、様々な測定表現やソフトウェアプラットフォーム間での材料特性情報の相互運用は難しい課題である。
この課題を克服する鍵は、材料の知覚的特徴の自動識別であり、異なる素材データ表現に格納された特性の直感的な識別を可能にする。
本稿では,視覚的視覚刺激から得られる知覚的特徴を符号化することで,物質識別への新たなアプローチを提案する。
心理物理学的な実験を行い,347本の映像から得られた16個の重要な知覚特性を選定し,検証した。
次に、各材料について20人以上の被験者から属性評価を収集し、各材料固有の知覚特性を符号化する「材料指紋」を作成しました。
最後に,多層パーセプトロンモデルを用いて,統計的および深層学習画像の特徴とそれに対応する知覚特性との関係を予測した。
本研究では,個々の属性に応じた材料検索とフィルタリングにおけるモデルの性能を示す。
このモデルは、デジタル表現によらず、多様なデジタル環境における材料特性の共有と理解を簡素化し、材料識別の精度と効率を高めるための重要なステップである。
関連論文リスト
- Data-efficient and Interpretable Inverse Materials Design using a Disentangled Variational Autoencoder [2.563209727695243]
逆材料設計は、新しい物質発見の加速に成功している。
多くの逆材料設計法では、教材表現のコンパクトな記述を提供するために潜在空間を学習する教師なし学習を用いる。
本稿では,不整合変分オートエンコーダをベースとした半教師付き学習手法を提案し,特徴,潜伏変数,対象特性の確率的関係を学習する。
論文 参考訳(メタデータ) (2024-09-10T02:21:13Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - Alchemist: Parametric Control of Material Properties with Diffusion
Models [51.63031820280475]
本手法は,フォトリアリズムで知られているテキスト・イメージ・モデルの生成先行に乗じる。
我々は,NeRFの材料化へのモデルの適用の可能性を示す。
論文 参考訳(メタデータ) (2023-12-05T18:58:26Z) - Multimodal Learning for Materials [7.167520424757711]
材料の基礎モデルの自己教師型マルチモーダルトレーニングを可能にするマルチモーダル・ラーニング・フォー・マテリアル(MultiMat)を紹介した。
複数の軸上のMaterial Projectデータベースからのデータを用いてフレームワークの可能性を示す。
論文 参考訳(メタデータ) (2023-11-30T18:35:29Z) - A General Protocol to Probe Large Vision Models for 3D Physical Understanding [84.54972153436466]
市販の大型視覚モデルの特徴が3Dシーンの物理的な「プロパティ」をエンコードするかどうかを評価するための一般的なプロトコルを提案する。
このプロトコルは、シーン幾何学、シーン素材、サポート関係、照明、ビュー依存尺度を含むプロパティに適用する。
安定拡散とDINOv2の特徴は,多くの特性の識別学習に有効であることがわかった。
論文 参考訳(メタデータ) (2023-10-10T17:59:28Z) - Interpretable Multimodal Emotion Recognition using Facial Features and
Physiological Signals [16.549488750320336]
視覚的な顔の特徴や、入力ビデオから抽出したr信号から情報を融合することで、感情理解のためのマルチモーダルフレームワークを導入する。
置換重要度分析に基づく解釈可能性技術も実装されている。
論文 参考訳(メタデータ) (2023-06-05T12:57:07Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - What Image Features Boost Housing Market Predictions? [81.32205133298254]
本稿では,予測アルゴリズムにおける効率的な数値包摂のための視覚特徴抽出手法を提案する。
本稿では,シャノンのエントロピー,重心計算,画像分割,畳み込みニューラルネットワークなどの手法について論じる。
ここで選択された40の画像特徴のセットは、かなりの量の予測能力を持ち、最も強力なメタデータ予測器よりも優れています。
論文 参考訳(メタデータ) (2021-07-15T06:32:10Z) - The joint role of geometry and illumination on material recognition [16.01513204879645]
幾何学,照明,空間周波数の相互作用が物質認識タスクにおける人間のパフォーマンスに与える影響について検討した。
材料認識に関する深いニューラルネットワークをトレーニングし、材料を正確に分類します。
論文 参考訳(メタデータ) (2021-01-07T11:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。