論文の概要: NeRF-Aug: Data Augmentation for Robotics with Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2411.02482v1
- Date: Mon, 04 Nov 2024 18:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:29.779767
- Title: NeRF-Aug: Data Augmentation for Robotics with Neural Radiance Fields
- Title(参考訳): NeRF-Aug:ニューラルラジアンスフィールドを用いたロボティクスのためのデータ拡張
- Authors: Eric Zhu, Mara Levy, Matthew Gwilliam, Abhinav Shrivastava,
- Abstract要約: NeRF-Augは、データセットに存在しないオブジェクトと対話するためのポリシーを教えることができる。
実験データを持たない11個の新しいオブジェクトを用いた4つのタスクに対して,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 36.54105753256361
- License:
- Abstract: Training a policy that can generalize to unknown objects is a long standing challenge within the field of robotics. The performance of a policy often drops significantly in situations where an object in the scene was not seen during training. To solve this problem, we present NeRF-Aug, a novel method that is capable of teaching a policy to interact with objects that are not present in the dataset. This approach differs from existing approaches by leveraging the speed and photorealism of a neural radiance field for augmentation. NeRF- Aug both creates more photorealistic data and runs 3.83 times faster than existing methods. We demonstrate the effectiveness of our method on 4 tasks with 11 novel objects that have no expert demonstration data. We achieve an average 69.1% success rate increase over existing methods. See video results at https://nerf-aug.github.io.
- Abstract(参考訳): 未知のオブジェクトに一般化できるポリシーを訓練することは、ロボット工学の分野における長年の課題である。
トレーニング中に現場の物体が見えない状況では、ポリシーのパフォーマンスが著しく低下することが多い。
この問題を解決するために、データセットに存在しないオブジェクトと対話するためのポリシーを教える新しい方法NeRF-Augを提案する。
このアプローチは、拡大のために神経放射場の速度と光リアリズムを利用する既存のアプローチとは異なる。
NeRF-Augはどちらもよりフォトリアリスティックなデータを生成し、既存の手法の3.83倍の速度で動作している。
実験データを持たない11個の新しいオブジェクトを用いた4つのタスクに対して,本手法の有効性を実証する。
既存の手法よりも平均69.1%の成功率の向上を実現しています。
ビデオの結果はhttps://nerf-aug.github.io.comで見ることができる。
関連論文リスト
- CTNeRF: Cross-Time Transformer for Dynamic Neural Radiance Field from Monocular Video [25.551944406980297]
複雑でダイナミックなシーンのモノクロ映像から高品質な新しいビューを生成するための新しいアプローチを提案する。
物体の動きの特徴を集約するために,時間領域と周波数領域の両方で動作するモジュールを導入する。
実験により,動的シーンデータセットにおける最先端手法に対する大幅な改善が示された。
論文 参考訳(メタデータ) (2024-01-10T00:40:05Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - NeRF in the Palm of Your Hand: Corrective Augmentation for Robotics via
Novel-View Synthesis [50.93065653283523]
SPARTN(Synthetic Perturbations for Augmenting Robot Trajectories via NeRF)は、ロボットポリシーを改善するための完全なオフラインデータ拡張スキームである。
提案手法はニューラルレイディアンス場(NeRF)を利用して,視覚的デモンストレーションに補正ノイズを合成注入する。
シミュレーションされた6-DoF視覚的把握ベンチマークでは、SPARTNは精度を2.8$times$で改善する。
論文 参考訳(メタデータ) (2023-01-18T23:25:27Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - SelfNeRF: Fast Training NeRF for Human from Monocular Self-rotating
Video [29.50059002228373]
SelfNeRFは、人間のパフォーマンスのための効率的な神経放射場に基づく新しいビュー合成法である。
訓練はスクラッチから行うことができ、20分ほどで高忠実度が得られる。
論文 参考訳(メタデータ) (2022-10-04T14:54:40Z) - NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance
Fields [54.27264716713327]
シーンのニューラル・ラジアンス・フィールド(NeRF)表現は,高密度物体記述子の訓練に利用できることを示す。
我々は、最適化されたNeRFを用いて、オブジェクトの複数のビュー間の密接な対応を抽出し、これらの対応を、オブジェクトのビュー不変表現を学習するためのトレーニングデータとして使用する。
また,本手法により教師されたディエンス対応モデルは,市販の学習ディスクリプタよりも106%優れていた。
論文 参考訳(メタデータ) (2022-03-03T18:49:57Z) - Object-Based Augmentation Improves Quality of Remote SensingSemantic
Segmentation [0.0]
本研究では,オブジェクトベース拡張の開発とテストに焦点をあてる。
本研究では,トレーニングサンプル数を大幅に増加させるジオリファレンス画像拡張のための新しいパイプラインを提案する。
提示されたパイプラインはオブジェクトベースの拡張(OBA)と呼ばれ、オブジェクトのセグメンテーションマスクを利用して新しい現実的なトレーニングシーンを生成します。
論文 参考訳(メタデータ) (2021-05-12T08:54:55Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。