論文の概要: Living in a Material World: Learning Material Properties from
Full-Waveform Flash Lidar Data for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.04334v1
- Date: Sun, 7 May 2023 17:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:23:11.250440
- Title: Living in a Material World: Learning Material Properties from
Full-Waveform Flash Lidar Data for Semantic Segmentation
- Title(参考訳): マテリアルワールドに生きる: セマンティクスセグメンテーションのためのフルウェーブフォームフラッシュlidarデータからの教材特性の学習
- Authors: Andrej Janda, Pierre Merriaux, Pierre Olivier, Jonathan Kelly
- Abstract要約: 本稿では,材料の種類やクラスがフルウェーブフォーム応答から決定できるかどうかを検討する。
概念実証として,物質クラスに関する余分な情報が正確に分かっている場合,シーン理解タスクの性能向上を実証する。
ある場合において、材料タイプは区別でき、TNは一般的に幅広い材料でより優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 4.9400670603451715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in lidar technology have made the collection of 3D point clouds fast
and easy. While most lidar sensors return per-point intensity (or reflectance)
values along with range measurements, flash lidar sensors are able to provide
information about the shape of the return pulse. The shape of the return
waveform is affected by many factors, including the distance that the light
pulse travels and the angle of incidence with a surface. Importantly, the shape
of the return waveform also depends on the material properties of the
reflecting surface. In this paper, we investigate whether the material type or
class can be determined from the full-waveform response. First, as a proof of
concept, we demonstrate that the extra information about material class, if
known accurately, can improve performance on scene understanding tasks such as
semantic segmentation. Next, we learn two different full-waveform material
classifiers: a random forest classifier and a temporal convolutional neural
network (TCN) classifier. We find that, in some cases, material types can be
distinguished, and that the TCN generally performs better across a wider range
of materials. However, factors such as angle of incidence, material colour, and
material similarity may hinder overall performance.
- Abstract(参考訳): ライダー技術の進歩により、3Dポイントクラウドの収集が迅速かつ容易になった。
ほとんどのライダーセンサーは距離測定とともにポイント毎の強度(または反射率)の値を返すが、フラッシュライダーセンサーは帰還パルスの形状に関する情報を提供することができる。
戻り波形の形状は、光パルスが移動する距離や表面への入射角度など、多くの要因に影響される。
重要なことに、戻り波形の形状は反射面の材料特性にも依存する。
本稿では,材料の種類やクラスが全波形応答から決定できるかどうかを検討する。
まず,概念実証として,意味的セグメンテーションなどのシーン理解タスクにおいて,材料クラスに関する余分な情報が正確に分かっている場合,性能を向上できることを実証する。
次に、ランダム森林分類器と時間畳み込みニューラルネットワーク分類器の2つの異なるフルウェーブフォーム材料分類器を学習する。
場合によっては、材料の種類を区別することができ、tcnはより広い範囲の材料で一般的により良く機能する。
しかし、入射角、材料色、材料類似性などの要因は全体的な性能を阻害する可能性がある。
関連論文リスト
- The Sound of Water: Inferring Physical Properties from Pouring Liquids [85.30865788636386]
注水液の音響・視覚観測と物理の関連性について検討した。
本研究の目的は, 液位, 容器形状, 注水速度, 充填時間などの物性を自動的に推定することである。
論文 参考訳(メタデータ) (2024-11-18T01:19:37Z) - A Deep Learning Framework for Three Dimensional Shape Reconstruction from Phaseless Acoustic Scattering Far-field Data [11.588406765923999]
我々は単一入射波、単一周波数、位相なし遠距離データによる限られた情報を用いた形状復元のためのディープラーニングフレームワークを開発する。
これは、(a)3次元変分オートエンコーダによって学習されたコンパクトな確率的形状潜在空間と、(b)音響散乱情報をこの形状表現にマッピングするように訓練された畳み込みニューラルネットワークを用いて行われる。
提案するフレームワークは、一般的な3D形状認識データセットであるShapeNetと同様に、合成3Dデータセットで評価される。
論文 参考訳(メタデータ) (2024-06-24T14:58:49Z) - RFTrans: Leveraging Refractive Flow of Transparent Objects for Surface
Normal Estimation and Manipulation [50.10282876199739]
本稿では、透明物体の表面正規化と操作のためのRGB-Dに基づくRFTransを提案する。
RFNetは屈折流、物体マスク、境界を予測し、次いでF2Netは屈折流から表面の正常を推定する。
現実のロボットがタスクをつかむと、成功率は83%となり、屈折流が直接シミュレートから現実への移動を可能にすることが証明される。
論文 参考訳(メタデータ) (2023-11-21T07:19:47Z) - MatSpectNet: Material Segmentation Network with Domain-Aware and
Physically-Constrained Hyperspectral Reconstruction [13.451692195639696]
MatSpectNetは、RGB画像から回復したハイパースペクトル画像で材料を分割する新しいモデルである。
現代のカメラにおける色知覚の原理を利用して、再構成されたハイパースペクトル画像を制限する。
平均ピクセル精度は1.60%増加し、最新の出版物と比べて平均クラス精度は3.42%改善している。
論文 参考訳(メタデータ) (2023-07-21T10:02:02Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - DyLiN: Making Light Field Networks Dynamic [8.479186000343484]
非剛性変形を処理できる動的光場ネットワーク(DyLiN)を提案する。
また、制御可能な属性入力でDyLiNを増強するCoDyLiNも導入する。
DyLiNは、視覚的忠実度の観点から、質的に優れ、定量的に最先端の手法と一致した。
論文 参考訳(メタデータ) (2023-03-24T19:05:48Z) - On Learning the Invisible in Photoacoustic Tomography with Flat
Directionally Sensitive Detector [0.27074235008521236]
本稿では,センサの入射波面方向に対する感度の変化に起因する第2のタイプに着目した。
画像領域とデータ領域における可視範囲は、波面方向マッピングによって関連付けられる。
我々は、高速な近似演算子と調整された深層ニューラルネットワークアーキテクチャを最適に組み合わせて、効率的な学習的再構成手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T09:57:01Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。