論文の概要: XR Blocks: Accelerating Human-centered AI + XR Innovation
- arxiv url: http://arxiv.org/abs/2509.25504v1
- Date: Mon, 29 Sep 2025 21:00:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.32262
- Title: XR Blocks: Accelerating Human-centered AI + XR Innovation
- Title(参考訳): XRブロック:人間中心のAIとXRイノベーションの加速
- Authors: David Li, Nels Numan, Xun Qian, Yanhe Chen, Zhongyi Zhou, Evgenii Alekseev, Geonsun Lee, Alex Cooper, Min Xia, Scott Chung, Jeremy Nelson, Xiuxiu Yuan, Jolica Dias, Tim Bettridge, Benjamin Hersh, Michelle Huynh, Konrad Piascik, Ricardo Cabello, David Kim, Ruofei Du,
- Abstract要約: XR Blocksは、人間中心のAI + XRイノベーションを加速するために設計されたクロスプラットフォームフレームワークである。
AI + XR:user, world, peers, interface, context, agentにおけるコア抽象化のためのプラグイン・アンド・プレイコンポーネントを備えたモジュールアーキテクチャを提供する。
- 参考スコア(独自算出の注目度): 15.103185935604323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are on the cusp where Artificial Intelligence (AI) and Extended Reality (XR) are converging to unlock new paradigms of interactive computing. However, a significant gap exists between the ecosystems of these two fields: while AI research and development is accelerated by mature frameworks like JAX and benchmarks like LMArena, prototyping novel AI-driven XR interactions remains a high-friction process, often requiring practitioners to manually integrate disparate, low-level systems for perception, rendering, and interaction. To bridge this gap, we present XR Blocks, a cross-platform framework designed to accelerate human-centered AI + XR innovation. XR Blocks strives to provide a modular architecture with plug-and-play components for core abstraction in AI + XR: user, world, peers; interface, context, and agents. Crucially, it is designed with the mission of "reducing frictions from idea to reality", thus accelerating rapid prototyping of AI + XR apps. Built upon accessible technologies (WebXR, three.js, TensorFlow, Gemini), our toolkit lowers the barrier to entry for XR creators. We demonstrate its utility through a set of open-source templates, samples, and advanced demos, empowering the community to quickly move from concept to interactive XR prototype. Site: https://xrblocks.github.io
- Abstract(参考訳): 人工知能(AI)と拡張現実(XR)が融合し、インタラクティブコンピューティングの新しいパラダイムが解き放たれている。
JAXのような成熟したフレームワークやLMArenaのようなベンチマークによってAIの研究と開発が加速される一方で、新しいAI駆動のXRインタラクションのプロトタイプは依然として高いフリクションプロセスであり、多くの場合、実践者は認識、レンダリング、インタラクションのための異なる低レベルのシステムを手動で統合する必要がある。
このギャップを埋めるために、人間中心のAI + XRイノベーションを加速するように設計されたクロスプラットフォームフレームワークであるXR Blocksを紹介します。
XR Blocksは、ユーザ、世界、ピア、インターフェース、コンテキスト、エージェントといった、AI+XRのコア抽象化のためのプラグインとプレイコンポーネントを備えたモジュールアーキテクチャの提供を目指している。
重要なことに、AI + XRアプリの迅速なプロトタイピングを加速させる"アイデアから現実への摩擦を緩和する"というミッションで設計されている。
アクセス可能なテクノロジ(WebXR、3.js、TensorFlow、Gemini)に基づいて構築された当社のツールキットは、XRクリエータの参入障壁を低くする。
私たちはオープンソースのテンプレート、サンプル、高度なデモを通じてそのユーティリティをデモし、コミュニティがコンセプトからインタラクティブなXRプロトタイプへ素早く移行できるようにします。
サイト: https://xrblocks.github.io
関連論文リスト
- Recent Advances and Future Directions in Extended Reality (XR): Exploring AI-Powered Spatial Intelligence [0.0]
拡張現実 (Extensioned Reality, XR) は、拡張現実(AR)、仮想現実(VR)、MR(Mixed Reality, MR)を包含する、物理世界と仮想世界を橋渡しするトランスフォーメーション技術である。
本稿では,XRの基盤的フレームワークによる進化を概観する。モニタからセンサ,視覚タスクからユーザインターフェースまで,ソフトウェアまで,幅広いハードウェアについて述べる。
今後の方向性については、適応型XRシステムを実現するために、マルチモーダルAIとIoT駆動のディジタルツインの統合に注意する必要がある。
論文 参考訳(メタデータ) (2025-04-22T15:11:55Z) - CUIfy the XR: An Open-Source Package to Embed LLM-powered Conversational Agents in XR [31.49021749468963]
大言語モデル (LLM) は音声テキスト (STT) とテキスト音声 (TTS) モデルを備えた非プレーヤ文字 (NPC) を用いており、XR のより自然な対話型ユーザインタフェース (CUI) を促進するために、従来の NPC やプレスクリプトの NPC よりも大きな利点をもたらす。
本稿では,広く使用されているLLM, STT, TTSモデルと音声によるNPCユーザインタラクションを容易にするオープンソース,カスタマイズ可能,拡張可能,プライバシ対応のUnityパッケージCUIfyを提供する。
論文 参考訳(メタデータ) (2024-11-07T12:55:17Z) - OpenHands: An Open Platform for AI Software Developers as Generalist Agents [109.8507367518992]
私たちは、人間の開発者と同じような方法で世界と対話するAIエージェントを開発するためのプラットフォームであるOpenHandsを紹介します。
プラットフォームが新しいエージェントの実装を可能にし、コード実行のためのサンドボックス環境との安全なインタラクション、評価ベンチマークの導入について説明する。
論文 参考訳(メタデータ) (2024-07-23T17:50:43Z) - ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z) - AtomXR: Streamlined XR Prototyping with Natural Language and Immersive
Physical Interaction [2.02671066150924]
AtomXRは、開発者が自然言語、アイゲイズ、タッチインタラクションを使ったアプリケーションを作成するのを支援するために設計された、合理化され、没入的、ノーコードXRプロトタイピングツールである。
AtomXRは、(1)高速プロトタイピングのための高レベルの人間解釈可能なスクリプト言語であるAtomScript、2)LLMとAtomScript生成のためのマルチモーダル入力を統合する自然言語インターフェース、3)没入型インヘッドセットオーサリング環境で構成される。
2つのユーザスタディによる経験的評価は、自然言語ベースおよび没入型プロトタイピングに関する洞察を与え、AtomXRは従来のシステムと比較して、スピードとユーザエクスペリエンスを大幅に改善することを示している。
論文 参考訳(メタデータ) (2023-11-19T05:52:25Z) - Actor-Critic Network for O-RAN Resource Allocation: xApp Design,
Deployment, and Analysis [3.8073142980733]
Open Radio Access Network (O-RAN)は、オープンネス、インテリジェンス、自動制御を可能にする新しいRANアーキテクチャを導入した。
RAN Intelligent Controller (RIC)は、RANコントローラの設計とデプロイのためのプラットフォームを提供する。
xAppsは、機械学習(ML)アルゴリズムを活用してほぼリアルタイムで動作することで、この責任を負うアプリケーションである。
論文 参考訳(メタデータ) (2022-09-26T19:12:18Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。