論文の概要: LUDO: Low-Latency Understanding of Highly Deformable Objects using Point Cloud Occupancy Functions
- arxiv url: http://arxiv.org/abs/2411.08777v1
- Date: Wed, 13 Nov 2024 17:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:10:25.379008
- Title: LUDO: Low-Latency Understanding of Highly Deformable Objects using Point Cloud Occupancy Functions
- Title(参考訳): LUDO:Point Cloud Occupancy関数を用いた高変形性オブジェクトの低レイテンシ理解
- Authors: Pit Henrich, Franziska Mathis-Ullrich, Paul Maria Scheikl,
- Abstract要約: 本稿では,変形可能な物体の高精度な低レイテンシ理解手法LUDOを紹介する。
LUDOは、内部構造を含む変形した状態の物体を、30ms以下の単一視点の雲観測から再構成する。
我々は、高度に変形可能な物体に対する内部領域の自律的ターゲティング能力を示す。
- 参考スコア(独自算出の注目度): 2.691955421780392
- License:
- Abstract: Accurately determining the shape and location of internal structures within deformable objects is crucial for medical tasks that require precise targeting, such as robotic biopsies. We introduce LUDO, a method for accurate low-latency understanding of deformable objects. LUDO reconstructs objects in their deformed state, including their internal structures, from a single-view point cloud observation in under 30 ms using occupancy networks. We demonstrate LUDO's abilities for autonomous targeting of internal regions of interest (ROIs) in highly deformable objects. Additionally, LUDO provides uncertainty estimates and explainability for its predictions, both of which are important in safety-critical applications such as surgical interventions. We evaluate LUDO in real-world robotic experiments, achieving a success rate of 98.9% for puncturing various ROIs inside highly deformable objects. LUDO demonstrates the potential to interact with deformable objects without the need for deformable registration methods.
- Abstract(参考訳): 変形可能な物体の内部構造の形態と位置を正確に決定することは、ロボットの生検のような正確な標的を必要とする医療作業に不可欠である。
本稿では,変形可能な物体の高精度な低レイテンシ理解手法LUDOを紹介する。
LUDOは、その内部構造を含む変形状態の物体を、占有ネットワークを用いて、30ミリ秒未満で1視点の雲観測から再構成する。
我々は、高度に変形可能なオブジェクトにおいて、LUDOが関心領域(ROI)の自律的ターゲティング能力を示す。
さらに、LUDOはその予測に対して不確実性の推定と説明可能性を提供し、どちらも外科的介入のような安全クリティカルな応用において重要である。
我々はLUDOを実世界のロボット実験で評価し、高度に変形可能な物体内で様々なROIを句読する成功率98.9%を達成した。
LUDOは、変形可能な登録方法を必要とせずに、変形可能なオブジェクトと相互作用する可能性を実証している。
関連論文リスト
- Representing Positional Information in Generative World Models for Object Manipulation [12.263162194821787]
本稿では,世界モデルに基づくエージェントがオブジェクト配置タスクを解くための汎用的アプローチを提案する。
特にLCPでは、目標仕様のためのオブジェクトの位置情報を明示的にキャプチャするオブジェクト中心の潜在表現を採用している。
提案手法は複数の操作環境にまたがって厳密に評価され,現行のモデルベース制御手法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2024-09-18T14:19:50Z) - Small Object Detection for Indoor Assistance to the Blind using YOLO NAS Small and Super Gradients [0.0]
本稿では,小物体検出の課題に対処して,視覚障害者に対する屋内支援のための新しいアプローチを提案する。
軽量で効率的なオブジェクト検出モデルであるYOLO NAS Smallアーキテクチャを,Super Gradientsトレーニングフレームワークを用いて最適化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-28T05:38:20Z) - Stimulating Imagination: Towards General-purpose Object Rearrangement [2.0885207827639785]
汎用オブジェクト配置は、インテリジェントロボットの基本的な能力である。
我々はこの課題を達成するためにSPORTというフレームワークを提案する。
Sportは、物理的に現実的な結果を保証するために拡散に基づく3Dポーズ推定器を学習する。
シミュレーションと実世界の実験により、汎用オブジェクト再構成を実現するためのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-08-03T03:53:05Z) - Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Uncertainty-aware Active Learning of NeRF-based Object Models for Robot Manipulators using Visual and Re-orientation Actions [8.059133373836913]
本稿では,ロボットが対象物の完全な3次元モデルを高速に学習し,不慣れな方向で操作できるアプローチを提案する。
我々は、部分的に構築されたNeRFモデルのアンサンブルを用いて、モデルの不確実性を定量化し、次の動作を決定する。
提案手法は, 部分的NeRFモデルにより対象物をいつ, どのように把握し, 再指向するかを判断し, 相互作用中に導入された不整合を補正するために, 対象のポーズを再推定する。
論文 参考訳(メタデータ) (2024-04-02T10:15:06Z) - Object Detectors in the Open Environment: Challenges, Solutions, and Outlook [95.3317059617271]
オープン環境のダイナミックで複雑な性質は、オブジェクト検出器に新しくて恐ろしい挑戦をもたらす。
本稿では,オープン環境におけるオブジェクト検出器の総合的なレビューと解析を行う。
データ/ターゲットの変化の次元に基づいて、4つの四分法(ドメイン外、カテゴリ外、堅牢な学習、漸進的な学習)を含むフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-24T19:32:39Z) - A Contextual Bandit Approach for Learning to Plan in Environments with
Probabilistic Goal Configurations [20.15854546504947]
本研究では,静的なオブジェクトだけでなく可動なオブジェクトに対しても,屋内環境を効率的に探索できるオブジェクトナビのためのモジュラーフレームワークを提案する。
我々は,不確実性に直面した場合の楽観性を示すことにより,環境を効率的に探索する。
提案アルゴリズムを2つのシミュレーション環境と実世界の環境で評価し,高いサンプル効率と信頼性を示す。
論文 参考訳(メタデータ) (2022-11-29T15:48:54Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。