論文の概要: Refractive Light-Field Features for Curved Transparent Objects in
Structure from Motion
- arxiv url: http://arxiv.org/abs/2103.15349v1
- Date: Mon, 29 Mar 2021 05:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:39:24.185784
- Title: Refractive Light-Field Features for Curved Transparent Objects in
Structure from Motion
- Title(参考訳): 曲がった透明物体の運動からの屈折光場特性
- Authors: Dorian Tsai and Peter Corke and Thierry Peynot and Donald G. Dansereau
- Abstract要約: 曲面透明物体から屈折する光のパターンを検出し,記述する光場のための新しい画像特徴を提案する。
屈折物体を含む難易度の高い場面において, 動作からの構造性能が向上することを示す。
本手法は,ロボットが屈折物体を操作できるようにするための重要なステップである。
- 参考スコア(独自算出の注目度): 10.380414189465345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curved refractive objects are common in the human environment, and have a
complex visual appearance that can cause robotic vision algorithms to fail.
Light-field cameras allow us to address this challenge by capturing the
view-dependent appearance of such objects in a single exposure. We propose a
novel image feature for light fields that detects and describes the patterns of
light refracted through curved transparent objects. We derive characteristic
points based on these features allowing them to be used in place of
conventional 2D features. Using our features, we demonstrate improved
structure-from-motion performance in challenging scenes containing refractive
objects, including quantitative evaluations that show improved camera pose
estimates and 3D reconstructions. Additionally, our methods converge 15-35%
more frequently than the state-of-the-art. Our method is a critical step
towards allowing robots to operate around refractive objects, with applications
in manufacturing, quality assurance, pick-and-place, and domestic robots
working with acrylic, glass and other transparent materials.
- Abstract(参考訳): 曲がりくねった屈折物体は人間の環境では一般的であり、ロボットの視覚アルゴリズムが失敗する複雑な視覚的外観を持つ。
ライトフィールドカメラは、このようなオブジェクトのビュー依存の外観を単一の露出で捉えることで、この課題に対処できます。
曲面透明物体から屈折する光のパターンを検出し,記述する光場のための新しい画像特徴を提案する。
これらの特徴に基づいて特徴点を導出し、従来の2次元特徴の代わりに使用できるようにする。
この特徴を用いて, カメラポーズ推定の精度向上や3次元再構成など, 屈折物体を含む難易度の高いシーンにおいて, 移動性能の向上を実証した。
さらに,本手法は最先端技術よりも15~35%頻度で収束する。
本手法は, 製造, 品質保証, ピック・アンド・プレイス, アクリル, ガラス, その他の透明材料を扱う家庭用ロボットなど, 屈折体のまわりをロボットが操作できるようにするための重要なステップである。
関連論文リスト
- PBIR-NIE: Glossy Object Capture under Non-Distant Lighting [30.325872237020395]
グロッシーオブジェクトは自然光下での多視点入力画像から3次元再構成を行う上で重要な課題となる。
PBIR-NIEは, 物体の形状, 材料特性, 周囲の照明を均等に捉えるために設計された逆レンダリングフレームワークである。
論文 参考訳(メタデータ) (2024-08-13T13:26:24Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Tabletop Transparent Scene Reconstruction via Epipolar-Guided Optical
Flow with Monocular Depth Completion Prior [14.049778178534588]
モバイルプラットフォームに適した透明なオブジェクトを再構築するための2段階パイプラインを導入する。
EOF(Epipolar-Guided Optical Flow)は、一貫した3次元再構成に先立って複数の単一視野形状を融合する。
パイプラインは, 3次元再構成品質において, ベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2023-10-15T21:30:06Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NEMTO: Neural Environment Matting for Novel View and Relighting Synthesis of Transparent Objects [28.62468618676557]
我々は3次元透明物体をモデル化する最初のエンドツーエンドニューラルネットワークパイプラインであるNEMTOを提案する。
透明物体の2次元像を入力として, 高品質な新規ビューと光合成が可能となる。
論文 参考訳(メタデータ) (2023-03-21T15:50:08Z) - ORCa: Glossy Objects as Radiance Field Cameras [23.75324754684283]
我々は、未知の幾何学を持つ光沢のある物体を放射場カメラに変換し、物体の視点から世界像を撮影する。
本研究では,環境放射界の復元により,被写体から周囲への深度と放射率の推定が可能となることを示す。
本手法は物体の多視点画像に基づいてエンドツーエンドに学習し, 物体形状, 拡散放射率, および5次元環境放射率場を共同で推定する。
論文 参考訳(メタデータ) (2022-12-08T19:32:08Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z) - Seeing the World in a Bag of Chips [73.561388215585]
ハンドヘルドRGBDセンサによる新しいビュー合成と環境再構築の二重問題に対処する。
提案するコントリビューションは,1)高スペクトル物体のモデリング,2)反射間およびフレネル効果のモデリング,3)形状のみを再構築するために必要な同じ入力で表面光場再構成を可能にすることを含む。
論文 参考訳(メタデータ) (2020-01-14T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。