論文の概要: IRIS: An Immersive Robot Interaction System
- arxiv url: http://arxiv.org/abs/2502.03297v3
- Date: Thu, 23 Oct 2025 08:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:03.627478
- Title: IRIS: An Immersive Robot Interaction System
- Title(参考訳): IRIS: 没入型ロボットインタラクションシステム
- Authors: Xinkai Jiang, Qihao Yuan, Enes Ulas Dincer, Hongyi Zhou, Ge Li, Xueyin Li, Xiaogang Jia, Timo Schnizer, Nicolas Schreiber, Weiran Liao, Julius Haag, Kailai Li, Gerhard Neumann, Rudolf Lioutikov,
- Abstract要約: IRISは様々なシミュレーターと実世界のシナリオにまたがる没入型インタラクションとデータ収集をサポートする。
任意の剛性と変形可能なオブジェクト、シミュレーションからのロボットを視覚化し、リアルタイムセンサー生成ポイントクラウドを実世界のアプリケーションに統合する。
- 参考スコア(独自算出の注目度): 29.868721218549993
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces IRIS, an Immersive Robot Interaction System leveraging Extended Reality (XR). Existing XR-based systems enable efficient data collection but are often challenging to reproduce and reuse due to their specificity to particular robots, objects, simulators, and environments. IRIS addresses these issues by supporting immersive interaction and data collection across diverse simulators and real-world scenarios. It visualizes arbitrary rigid and deformable objects, robots from simulation, and integrates real-time sensor-generated point clouds for real-world applications. Additionally, IRIS enhances collaborative capabilities by enabling multiple users to simultaneously interact within the same virtual scene. Extensive experiments demonstrate that IRIS offers efficient and intuitive data collection in both simulated and real-world settings.
- Abstract(参考訳): 本稿では,拡張現実感(XR)を利用した没入型ロボットインタラクションシステムIRISを紹介する。
既存のXRベースのシステムは効率的なデータ収集を可能にするが、特定のロボット、オブジェクト、シミュレータ、環境に固有のため、しばしば再生と再利用が困難である。
IRISは、様々なシミュレーターと実世界のシナリオにまたがる没入的なインタラクションとデータ収集をサポートすることで、これらの問題に対処する。
任意の剛性と変形可能なオブジェクト、シミュレーションからのロボットを視覚化し、リアルタイムセンサー生成ポイントクラウドを実世界のアプリケーションに統合する。
さらに、IRISは複数のユーザが同じ仮想シーン内で同時に対話できるようにすることで、協調機能を強化している。
大規模な実験では、IRISはシミュレーションと実世界の両方の環境で効率的で直感的なデータ収集を提供する。
関連論文リスト
- Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - AIvaluateXR: An Evaluation Framework for on-Device AI in XR with Benchmarking Results [55.33807002543901]
我々は,XRデバイス上で動作する大規模言語モデル(LLM)をベンチマークするための総合評価フレームワークであるAIvaluateXRを提案する。
我々はMagic Leap 2、Meta Quest 3、Vivo X100s Pro、Apple Vision Proという4つのXRプラットフォームに17個の選択されたLSMをデプロイし、広範囲な評価を行います。
本稿では,3次元最適性理論に基づく統一評価手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T20:55:48Z) - Explainable XR: Understanding User Behaviors of XR Environments using LLM-assisted Analytics Framework [24.02808692450192]
多様なXR環境におけるユーザ動作を分析するためのエンドツーエンドフレームワークであるExplainable XRを提案する。
説明可能なXRは、AR、VR、MR、トランジッション、マルチユーザ共同アプリケーションシナリオといった、クロスプラットフォームを扱う際の課題に対処する。
論文 参考訳(メタデータ) (2025-01-23T15:55:07Z) - Synthesizing Post-Training Data for LLMs through Multi-Agent Simulation [51.20656279478878]
MATRIXは、様々なテキストベースのシナリオを自動的に生成するマルチエージェントシミュレータである。
制御可能でリアルなデータ合成のためのMATRIX-Genを紹介する。
AlpacaEval 2 と Arena-Hard のベンチマークでは、Llama-3-8B-Base が、MATRIX-Gen によって合成されたデータセット上で、たった 20K の命令応答ペアで、Meta の Llama-3-8B-Instruct モデルより優れています。
論文 参考訳(メタデータ) (2024-10-18T08:01:39Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - Embedding Large Language Models into Extended Reality: Opportunities and Challenges for Inclusion, Engagement, and Privacy [37.061999275101904]
我々は、それらをアバターに埋め込んだり、物語として含めることによって、XRで大きな言語モデルを使うことについて議論する。
ユーザがLLMを利用する空間に提供した情報と、得られた生体データを組み合わせることで、新たなプライバシー侵害につながるのではないか、と推測する。
論文 参考訳(メタデータ) (2024-02-06T11:19:40Z) - UniSim: A Neural Closed-Loop Sensor Simulator [76.79818601389992]
センサ搭載車両によって記録された1つのログをキャプチャする、ニューラルネットワークシミュレータUniSimを提示する。
UniSimは、静的バックグラウンドと動的アクターの両方を再構築するために、ニューラルネットワーク機能グリッドを構築する。
動的オブジェクトの学習可能な事前情報を組み込んで、畳み込みネットワークを利用して未確認領域を完成させる。
論文 参考訳(メタデータ) (2023-08-03T17:56:06Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - IBISCape: A Simulated Benchmark for multi-modal SLAM Systems Evaluation
in Large-scale Dynamic Environments [0.0]
IBISCapeは高忠実度SLAMシステムのシミュレーションベンチマークである。
自動運転車のナビゲーションに適した34のマルチモーダルデータセットを提供します。
シミュレーションされた大規模動的環境において, 各種配列上でのORB-SLAM3システムの評価を行った。
論文 参考訳(メタデータ) (2022-06-27T17:04:06Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。