論文の概要: Visual Vibration Tomography: Estimating Interior Material Properties
from Monocular Video
- arxiv url: http://arxiv.org/abs/2104.02735v1
- Date: Tue, 6 Apr 2021 18:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:39:09.979304
- Title: Visual Vibration Tomography: Estimating Interior Material Properties
from Monocular Video
- Title(参考訳): 視覚振動トモグラフィ : 単眼映像からの内部材料特性を推定する
- Authors: Berthy Feng, Alexander C. Ogren, Chiara Daraio, Katherine L. Bouman
- Abstract要約: 物体の内部の物質特性は、人間の目には見えないが、表面で観察される動きを決定する。
本研究では,物体の表面振動の単眼映像から物体の異種材料特性を直接推定する手法を提案する。
- 参考スコア(独自算出の注目度): 67.99248211490715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An object's interior material properties, while invisible to the human eye,
determine motion observed on its surface. We propose an approach that estimates
heterogeneous material properties of an object directly from a monocular video
of its surface vibrations. Specifically, we estimate Young's modulus and
density throughout a 3D object with known geometry. Knowledge of how these
values change across the object is useful for characterizing defects and
simulating how the object will interact with different environments.
Traditional non-destructive testing approaches, which generally estimate
homogenized material properties or the presence of defects, are expensive and
use specialized instruments. We propose an approach that leverages monocular
video to (1) measure and object's sub-pixel motion and decompose this motion
into image-space modes, and (2) directly infer spatially-varying Young's
modulus and density values from the observed image-space modes. On both
simulated and real videos, we demonstrate that our approach is able to image
material properties simply by analyzing surface motion. In particular, our
method allows us to identify unseen defects on a 2D drum head from real,
high-speed video.
- Abstract(参考訳): 物体の内部の物質特性は、人間の目には見えないが、表面で観察される動きを決定する。
本研究では,物体の表面振動の単眼映像から物体の異種材料特性を直接推定する手法を提案する。
具体的には、3次元物体全体のヤング率と密度を既知の幾何で推定する。
これらの値がオブジェクト全体にどのように変化するかの知識は、欠陥を特徴づけたり、オブジェクトが異なる環境とどのように相互作用するかをシミュレートするのに役立ちます。
従来の非破壊試験手法は、一般的に均質化された材料特性や欠陥の有無を推定し、高価で特殊な器具を使用する。
単眼映像を用いて,(1)物体のサブピクセルの動きを測定し,その動きを画像空間モードに分解し,(2)観測された画像空間モードからヤング率と密度値を直接的に推定する手法を提案する。
シミュレーションビデオと実動画の両方において,本手法が表面運動を解析することで,材料特性を画像化できることが実証された。
特に,本手法では,実高速度映像から2dドラムヘッドの見当たらない欠陥を識別できる。
関連論文リスト
- Physical Property Understanding from Language-Embedded Feature Fields [27.151380830258603]
本稿では,画像の集合を用いて物体の物理的特性を高密度に予測する手法を提案する。
人間が視覚を通して物理学をどう考えるかに触発されて、我々は大きな言語モデルを活用して、各対象に対して候補となる材料を提案する。
我々の手法は正確で、アノテーションなしで、オープン世界のどんなオブジェクトにも適用できます。
論文 参考訳(メタデータ) (2024-04-05T17:45:07Z) - Visual Looming from Motion Field and Surface Normals [0.0]
織りは、伝統的に観測者の網膜における物体の相対的な拡張として定義され、脅威を認識するための基本的な視覚的キューであり、衝突のないナビゲーションを達成するために使用することができる。
局所表面に対する観測者の6自由度運動から生じる2次元運動場から、視覚的略奪を定量的に得るための新しい解を導出する。
本稿では,光流の空間微分から視覚的略奪を推定するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-08T21:36:49Z) - Spatio-Temporal Relation Learning for Video Anomaly Detection [35.59510027883497]
異常識別は、オブジェクトとシーンの関係に大きく依存する。
本稿では,ビデオ異常検出タスクに対処するための空間時間関係学習フレームワークを提案する。
3つの公開データセットで実験を行い、最先端手法よりも優れた性能を示し、本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-09-27T02:19:31Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Identifying Mechanical Models through Differentiable Simulations [16.86640234046472]
本稿では,未知の物体を非包括的動作によって操作する新しい手法を提案する。
提案手法は、微分可能な物理モデルの最近の進歩を利用して、操作対象の未知の力学的性質を同定する。
論文 参考訳(メタデータ) (2020-05-11T20:19:20Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z) - Cloth in the Wind: A Case Study of Physical Measurement through
Simulation [50.31424339972478]
実例を一度も見ずに風中の布の潜伏物性を測定することを提案する。
私たちのソリューションは、シミュレーションをコアとした反復的な洗練手順です。
この対応は、物理的に類似した例を近くの点にマッピングする埋め込み関数を用いて測定される。
論文 参考訳(メタデータ) (2020-03-09T21:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。