論文の概要: Preference-Driven Active 3D Scene Representation for Robotic Inspection in Nuclear Decommissioning
- arxiv url: http://arxiv.org/abs/2504.02161v1
- Date: Wed, 02 Apr 2025 22:20:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:23.861374
- Title: Preference-Driven Active 3D Scene Representation for Robotic Inspection in Nuclear Decommissioning
- Title(参考訳): 核破壊におけるロボット検査のための優先駆動型アクティブ3次元シーン表現
- Authors: Zhen Meng, Kan Chen, Xiangmin Xu, Erwin Jose Lopez Pulgarin, Emma Li, Philip G. Zhao, David Flynn,
- Abstract要約: 本稿では,能動的3次元シーン表現パイプラインに専門家の好みを取り入れた新しいフレームワークを提案する。
具体的には,ロボット経路計画の指針として,人間フィードバックからの強化学習を用いる。
我々は, 原子炉タイル検査のためのUR3eロボットアームを用いて, 核廃炉シナリオの枠組みを検証した。
- 参考スコア(独自算出の注目度): 13.808946251331365
- License:
- Abstract: Active 3D scene representation is pivotal in modern robotics applications, including remote inspection, manipulation, and telepresence. Traditional methods primarily optimize geometric fidelity or rendering accuracy, but often overlook operator-specific objectives, such as safety-critical coverage or task-driven viewpoints. This limitation leads to suboptimal viewpoint selection, particularly in constrained environments such as nuclear decommissioning. To bridge this gap, we introduce a novel framework that integrates expert operator preferences into the active 3D scene representation pipeline. Specifically, we employ Reinforcement Learning from Human Feedback (RLHF) to guide robotic path planning, reshaping the reward function based on expert input. To capture operator-specific priorities, we conduct interactive choice experiments that evaluate user preferences in 3D scene representation. We validate our framework using a UR3e robotic arm for reactor tile inspection in a nuclear decommissioning scenario. Compared to baseline methods, our approach enhances scene representation while optimizing trajectory efficiency. The RLHF-based policy consistently outperforms random selection, prioritizing task-critical details. By unifying explicit 3D geometric modeling with implicit human-in-the-loop optimization, this work establishes a foundation for adaptive, safety-critical robotic perception systems, paving the way for enhanced automation in nuclear decommissioning, remote maintenance, and other high-risk environments.
- Abstract(参考訳): アクティブな3Dシーンの表現は、遠隔検査、操作、テレプレゼンスを含む現代のロボティクスアプリケーションにおいて重要である。
従来の手法は主に幾何学的忠実度やレンダリングの精度を最適化するが、安全クリティカルなカバレッジやタスク駆動の視点など、オペレーター固有の目的を見落としていることが多い。
この制限は、特に核離脱のような制限された環境において、最適以下の視点選択につながる。
このギャップを埋めるために、専門家の好みをアクティブな3Dシーン表現パイプラインに統合する新しいフレームワークを導入する。
具体的には、人間フィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)を用いて、ロボット経路計画のガイドを行い、専門家の入力に基づいて報酬関数を再構成する。
操作者固有の優先順位を捉えるために、3次元シーン表現におけるユーザの好みを評価するインタラクティブな選択実験を行う。
我々は, 原子炉タイル検査のためのUR3eロボットアームを用いて, 核廃炉シナリオの枠組みを検証した。
ベースライン手法と比較して,提案手法は軌道の効率を最適化しながらシーン表現を向上させる。
RLHFベースのポリシーは、タスククリティカルな詳細を優先して、ランダム選択を一貫して上回る。
この研究は、暗黙のヒト-イン-ループ最適化による明示的な3次元幾何学的モデリングを統一することにより、適応的で安全クリティカルなロボット認識システムの基礎を確立し、核解体、遠隔保守、その他のリスクの高い環境における自動化の道を開く。
関連論文リスト
- OccLoff: Learning Optimized Feature Fusion for 3D Occupancy Prediction [5.285847977231642]
3Dセマンティック占有予測は、自動運転の安全性を確保するために不可欠である。
既存のフュージョンベースの占有法では、画像の特徴に対して2次元から3次元のビュー変換を行うのが一般的である。
OccLoffは3次元占有予測のためにFeature Fusionを最適化するフレームワークである。
論文 参考訳(メタデータ) (2024-11-06T06:34:27Z) - Neural Attention Field: Emerging Point Relevance in 3D Scenes for One-Shot Dexterous Grasping [34.98831146003579]
被写体と文脈のバリエーションのある新しいシーンに、巧妙なつかみをワンショットで移動させることは、難しい問題である。
本稿では,3次元空間における意味認識型高次特徴体を表現するためのテクスチュラルアテンション場を提案する。
論文 参考訳(メタデータ) (2024-10-30T14:06:51Z) - Leveraging Spatial Attention and Edge Context for Optimized Feature Selection in Visual Localization [0.0]
画像の情報領域を選択的にターゲットするアテンションネットワークを導入する。
このネットワークを用いて、特徴選択プロセスを改善し、エッジ検出と組み合わせることで、最高の特徴を識別する。
提案手法を屋外ベンチマークデータセットで検証し,従来の手法と比較して優れた結果を示した。
論文 参考訳(メタデータ) (2024-10-16T05:00:51Z) - GOI: Find 3D Gaussians of Interest with an Optimizable Open-vocabulary Semantic-space Hyperplane [53.388937705785025]
3Dオープンボキャブラリのシーン理解は、拡張現実とロボット応用の推進に不可欠である。
GOIは2次元視覚言語基礎モデルから3次元ガウススプラッティング(3DGS)に意味的特徴を統合するフレームワークである。
提案手法では,特徴空間内の超平面分割として特徴選択処理を扱い,クエリに関連性の高い特徴のみを保持する。
論文 参考訳(メタデータ) (2024-05-27T18:57:18Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Learning to View: Decision Transformers for Active Object Detection [18.211691238072245]
ほとんどのロボットシステムでは、知覚は運動計画とは独立している。
我々は,ロボットの認識品質を最大化する画像を得るために,強化学習法(RL)を用いてロボットを制御する。
屋内シナリオシミュレータから収集した対話型データセットにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2023-01-23T17:00:48Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。