論文の概要: Augmenting Human Cognition through Everyday AR
- arxiv url: http://arxiv.org/abs/2505.03492v1
- Date: Tue, 06 May 2025 12:48:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.377496
- Title: Augmenting Human Cognition through Everyday AR
- Title(参考訳): 日々のARによる人間の認知力向上
- Authors: Xiaoan Liu,
- Abstract要約: 常時オンのARは、デジタル認識と物理的余裕をシームレスにブリッジし、アクティブで文脈に敏感なインタラクションを可能にする。
本稿では、常時オンのARがデジタル認識と身体的余裕をシームレスにブリッジし、アクティブで文脈に敏感なインタラクションを可能にする方法について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As spatial computing and multimodal LLMs mature, AR is tending to become an intuitive "thinking tool," embedding semantic and context-aware intelligence directly into everyday environments. This paper explores how always-on AR can seamlessly bridge digital cognition and physical affordances, enabling proactive, context-sensitive interactions that enhance human task performance and understanding.
- Abstract(参考訳): 空間コンピューティングとマルチモーダルLLMが成熟するにつれて、ARは直感的な"思考ツール"になり、セマンティックとコンテキスト認識インテリジェンスを直接日常の環境に埋め込む傾向にある。
本稿では、常時オンのARがデジタル認識と身体的余裕をシームレスに橋渡しし、人間のタスク性能と理解を高めるために、能動的で文脈に敏感なインタラクションを可能にする方法について考察する。
関連論文リスト
- A Vision for AI-Driven Adaptation of Dynamic AR Content to Users and Environments [15.578223073114156]
このビジョンペーパーは、適応ARコンテンツ配置のためのAI駆動アプローチを推測する。
我々は、様々な産業におけるイノベーションと改善の新たな機会を構想することを目指している。
論文 参考訳(メタデータ) (2025-04-23T09:42:38Z) - Leveraging LLMs with Iterative Loop Structure for Enhanced Social Intelligence in Video Question Answering [13.775516653315103]
社会的知性は効果的なコミュニケーションと適応応答に不可欠である。
現在のソーシャルインテリジェンスのためのビデオベースの手法は、一般的なビデオ認識や感情認識技術に依存している。
本稿では,大規模言語モデルと視覚情報を統合したLooped Video Debatingフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-27T06:14:21Z) - Everyday AR through AI-in-the-Loop [16.65802031939239]
このワークショップは、拡張現実(AR)と人工知能(AI)の専門家と実践者を集結させ、日々のAR体験におけるAI-in-the-loopの未来を形作る。
適応的かつコンテキスト対応のAR、生成的ARコンテンツ生成、常時オンのAIアシスタント、AI駆動のアクセシブルデザイン、実世界のAIエージェントなど、さまざまなトピックについて議論する。
私たちのゴールは、デジタルと物理の世界をシームレスにブレンドする新しいAR体験を作ることに集中して、AI対応ARの機会と課題を特定することです。
論文 参考訳(メタデータ) (2024-12-17T08:51:55Z) - Multimodal 3D Fusion and In-Situ Learning for Spatially Aware AI [10.335943413484815]
拡張現実における仮想世界と物理世界のシームレスな統合は、物理的な環境を意味的に「理解する」システムから恩恵を受ける。
本稿では,意味的知識と言語的知識を幾何学的表現と一体化する多モード3Dオブジェクト表現を提案する。
提案システムの有用性を,Magic Leap 2上の2つの実世界のARアプリケーションを用いて実証する:a) 自然言語を用いた物理環境における空間探索,b) 時間とともにオブジェクトの変化を追跡するインテリジェントなインベントリシステム。
論文 参考訳(メタデータ) (2024-10-06T23:25:21Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - MISAR: A Multimodal Instructional System with Augmented Reality [38.79160527414268]
Augmented Reality (AR) は、視覚、聴覚、言語チャネルのシームレスな統合を必要とする。
本研究では,大規模言語モデル(LLM)を用いた視覚・聴覚・文脈の類似化手法を提案する。
論文 参考訳(メタデータ) (2023-10-18T04:15:12Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Towards Ubiquitous Semantic Metaverse: Challenges, Approaches, and
Opportunities [68.03971716740823]
近年,拡張現実(AR)および仮想現実(VR)ユーザーのための没入型サイバーバーチャル体験に革命をもたらすために,ユビキタスセマンティック・メタバースが研究されている。
この調査は、ユビキタスメタバースにおける4つの基本システムコンポーネントの表現とインテリジェンスに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-13T11:14:46Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - WordCraft: An Environment for Benchmarking Commonsense Agents [107.20421897619002]
我々はLittle Alchemy 2.0をベースとしたRL環境であるWordCraftを提案する。
この軽量環境は、現実のセマンティクスにインスパイアされたエンティティとリレーションに基づいて実行され、構築される。
論文 参考訳(メタデータ) (2020-07-17T18:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。