論文の概要: Exploiting Radiance Fields for Grasp Generation on Novel Synthetic Views
- arxiv url: http://arxiv.org/abs/2505.11467v1
- Date: Fri, 16 May 2025 17:23:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.767287
- Title: Exploiting Radiance Fields for Grasp Generation on Novel Synthetic Views
- Title(参考訳): 新たな合成的視点に基づくグラフ生成のための爆発的放射場
- Authors: Abhishek Kashyap, Henrik Andreasson, Todor Stoyanov,
- Abstract要約: 新規なビュー合成は, つかみポーズを生成する際に, 追加のコンテキストを提供できることを示す最初の結果を示す。
Graspnet-1billionデータセットに対する実験により、新しいビューが力量閉鎖の把握に寄与したことが示された。
将来的には、単一入力画像で構築した放射場からのグリップ抽出を改善するために、この作業を拡張できることを願っている。
- 参考スコア(独自算出の注目度): 7.305342793164903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision based robot manipulation uses cameras to capture one or more images of a scene containing the objects to be manipulated. Taking multiple images can help if any object is occluded from one viewpoint but more visible from another viewpoint. However, the camera has to be moved to a sequence of suitable positions for capturing multiple images, which requires time and may not always be possible, due to reachability constraints. So while additional images can produce more accurate grasp poses due to the extra information available, the time-cost goes up with the number of additional views sampled. Scene representations like Gaussian Splatting are capable of rendering accurate photorealistic virtual images from user-specified novel viewpoints. In this work, we show initial results which indicate that novel view synthesis can provide additional context in generating grasp poses. Our experiments on the Graspnet-1billion dataset show that novel views contributed force-closure grasps in addition to the force-closure grasps obtained from sparsely sampled real views while also improving grasp coverage. In the future we hope this work can be extended to improve grasp extraction from radiance fields constructed with a single input image, using for example diffusion models or generalizable radiance fields.
- Abstract(参考訳): 視覚に基づくロボット操作は、カメラを使用して、操作対象を含むシーンの1つまたは複数の画像をキャプチャする。
複数の画像を取ることは、あるオブジェクトがある視点から隠されているが、別の視点からより見える場合に役立つ。
しかし、カメラは複数の画像を取得するのに適した位置に移動されなければならない。
そのため、追加画像は、利用可能な追加情報のためにより正確な把握ポーズを生成することができるが、時間コストは、サンプリングされた追加ビューの数に比例する。
Gaussian Splattingのようなシーン表現は、ユーザが指定した斬新な視点から正確なフォトリアリスティックな仮想画像をレンダリングすることができる。
そこで本研究では,新規なビュー合成が,把握ポーズを生成する上で,付加的なコンテキストを提供できることを示す最初の結果を示す。
また,Graspnet-1billionデータセットを用いた実験結果から,スキャスティングされた実視点から得られた力-閉鎖グリップに加えて,力-閉鎖グリップの獲得にも寄与し,把握範囲も改善した。
将来的には、例えば拡散モデルや一般化可能な放射場を用いて、単一の入力画像で構築した放射場からの把握抽出を改善するために、この作業を拡張できることを期待している。
関連論文リスト
- Novel View Extrapolation with Video Diffusion Priors [98.314893665023]
ViewExtrapolatorは,Stable Video Diffusion (SVD) の生み出した先進的なビュー合成手法である。
ViewExtrapolatorは、単一のビューまたはモノクロビデオしか利用できない場合、ポイントクラウドからレンダリングされたビューなど、さまざまなタイプの3Dレンダリングで動作する。
論文 参考訳(メタデータ) (2024-11-21T15:16:48Z) - Sampling for View Synthesis: From Local Light Field Fusion to Neural Radiance Fields and Beyond [27.339452004523082]
局所光電場融合は、サンプルビューの不規則なグリッドから現実的なビュー合成を行うアルゴリズムを提案する。
我々は、最大4000倍のビューを用いて、Nyquistレートビューサンプリングの知覚品質を実現する。
スパースおよび単一画像ビュー合成に関する最近の研究結果のいくつかを再現する。
論文 参考訳(メタデータ) (2024-08-08T16:56:03Z) - MetaCap: Meta-learning Priors from Multi-View Imagery for Sparse-view Human Performance Capture and Rendering [91.76893697171117]
そこで本研究では, 高精度かつ高品質な幾何復元と新規なビュー合成手法を提案する。
私たちのキーとなるアイデアは、低解像度のマルチビュービデオからのみ、放射界の重みをメタラーニングすることです。
新しいデータセットWildDynaCap(ワイルドダイナキャップ)は、密集したカメラドームと細いカメラリグの両方に収まる被写体を含んでいる。
論文 参考訳(メタデータ) (2024-03-27T17:59:54Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Ray Priors through Reprojection: Improving Neural Radiance Fields for
Novel View Extrapolation [35.47411859184933]
本研究では,(1)トレーニング画像が対象をうまく表現できる,(2)トレーニング画像とテスト視点の分布との間には顕著な相違点がある,という新しい視点外挿設定について検討する。
ランダムな光線キャスティングポリシーを提案する。
観測された光線の視方向から予め計算された光アトラスは、外挿された視界のレンダリング品質をさらに高めることができる。
論文 参考訳(メタデータ) (2022-05-12T07:21:17Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。