論文の概要: Empowering Children to Create AI-Enabled Augmented Reality Experiences
- arxiv url: http://arxiv.org/abs/2508.08467v1
- Date: Mon, 11 Aug 2025 20:57:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.232586
- Title: Empowering Children to Create AI-Enabled Augmented Reality Experiences
- Title(参考訳): 子供たちにAIで実現可能な拡張現実体験を創造させる
- Authors: Lei Zhang, Shuyao Zhou, Amna Liaqat, Tinney Mak, Brian Berengard, Emily Qian, Andrés Monroy-Hernández,
- Abstract要約: CapybaraはARベースのビジュアルプログラミング環境で、子供たちに物理的な世界にオーバーレイされた3Dキャラクターを作成し、カスタマイズし、プログラムすることを可能にする。
Capybaraは、子供たちにテキストから3D生成AIモデルを使って仮想文字とアクセサリを作成し、これらの文字を自動リギングとボディトラッキングを通じてアニメーションすることを可能にする。
- 参考スコア(独自算出の注目度): 12.077061455323522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their potential to enhance children's learning experiences, AI-enabled AR technologies are predominantly used in ways that position children as consumers rather than creators. We introduce Capybara, an AR-based and AI-powered visual programming environment that empowers children to create, customize, and program 3D characters overlaid onto the physical world. Capybara enables children to create virtual characters and accessories using text-to-3D generative AI models, and to animate these characters through auto-rigging and body tracking. In addition, our system employs vision-based AI models to recognize physical objects, allowing children to program interactive behaviors between virtual characters and their physical surroundings. We demonstrate the expressiveness of Capybara through a set of novel AR experiences. We conducted user studies with 20 children in the United States and Argentina. Our findings suggest that Capybara can empower children to harness AI in authoring personalized and engaging AR experiences that seamlessly bridge the virtual and physical worlds.
- Abstract(参考訳): 子どもの学習体験を強化する可能性にもかかわらず、AI対応AR技術は主に、クリエーターではなく、子どもを消費者として位置づける方法で使われている。
CapybaraはARベースのAIを使ったビジュアルプログラミング環境で、子どもたちが物理的な世界にオーバーレイされた3Dキャラクタを作成し、カスタマイズし、プログラムすることを可能にする。
Capybaraは、子供たちにテキストから3D生成AIモデルを使って仮想文字とアクセサリを作成し、これらの文字を自動リギングとボディトラッキングを通じてアニメーションすることを可能にする。
さらに,本システムでは,視覚に基づくAIモデルを用いて物体を認識することで,バーチャルキャラクタと身体環境との間の対話的行動のプログラムを可能にする。
我々は,新しいAR体験のセットを通じて,キャピバラの表現性を実証する。
アメリカ合衆国とアルゼンチンで20人の子供を対象にユーザスタディを行った。
私たちの発見は、Capybaraが子供たちに、バーチャル世界と物理的な世界をシームレスに橋渡しするパーソナライズされた、魅力的なAR体験の執筆にAIを活用する力を与えることを示唆している。
関連論文リスト
- EmbodMocap: In-the-Wild 4D Human-Scene Reconstruction for Embodied Agents [85.77432303199176]
EmbodMocapは2つの動くiPhoneを使ったポータブルで安価なデータ収集パイプラインである。
私たちのキーとなるアイデアは、二重RGB-Dシーケンスを共同で校正し、人間とシーンの両方を再構築することです。
収集したデータに基づいて、我々は3つの具体的AIタスクを強化した: モノクラーヒューマン・シーン・リコンストラクション(モノクラーヒューマン・シーン・リコンストラクション)、メトリックスケールで世界空間に整合した人間とシーンを出力するフィードフォワードモデル、物理ベースのキャラクターアニメーション。
論文 参考訳(メタデータ) (2026-02-26T16:53:41Z) - Tinker Tales: Supporting Child-AI Collaboration through Co-Creative Storytelling with Educational Scaffolding [7.821369295879863]
ティンカー物語(Tinker Tales)は、子供とAIのコラボレーションを支援するために、物語と社会的感情の足場をデザインしたストーリーテリングシステムである。
子どもたちはストーリー要素を配置し、移動し、有形および音声ベースのインタラクションを通じてAIと対話することでストーリーを形作り、洗練する。
論文 参考訳(メタデータ) (2026-02-04T00:48:12Z) - Embodied AI Agents: Modeling the World [188.85697524284834]
本稿では,視覚的,仮想的,物理的形態を具現化したAIエージェントの研究について述べる。
我々は,世界モデルの開発が,具体的AIエージェントの推論と計画の中心であることを提案する。
また,より優れた人間とエージェントのコラボレーションを実現するために,ユーザのメンタルワールドモデルを学ぶことを提案する。
論文 参考訳(メタデータ) (2025-06-27T16:05:34Z) - Emergent Active Perception and Dexterity of Simulated Humanoids from Visual Reinforcement Learning [69.71072181304066]
本稿では,擬似ヒューマノイドを用いた視覚駆動全身制御フレームワークであるPerceptive Dexterous Control (PDC)を紹介する。
PDCは、タスク仕様のためのエゴセントリックなビジョンのみを運用し、ビジュアルキューによるオブジェクト検索、ターゲット配置、スキル選択を可能にする。
強化学習によるスクラッチからのトレーニングは,能動探索などの創発的な行動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-18T07:33:31Z) - Children's Mental Models of Generative Visual and Text Based AI Models [0.027961972519572442]
5-12歳の子どもたちは、テキストベースのLLMs ChatGPTやビジュアルベースのDALL-Eのような生成AIモデルを知覚し、理解し、使用します。
子どもたちは一般的に、AIに対して非常に肯定的な見通しを持ち、AIが日々の生活に利益をもたらし、支援する方法に興奮しています。
これらの発見が、子どものメンタルなAIモデルに光を当て、必然的にAIを生かしている子供たちに最適なツールを設計するための洞察を与えてくれることを期待しています。
論文 参考訳(メタデータ) (2024-05-21T06:18:00Z) - AIris: An AI-powered Wearable Assistive Device for the Visually Impaired [0.0]
AIを利用したウェアラブルデバイスであるAIrisを導入し、視覚障害者に環境認識とインタラクション機能を提供する。
我々は,実環境下で効果的に動作する機能プロトタイプシステムを開発した。
論文 参考訳(メタデータ) (2024-05-13T10:09:37Z) - V-IRL: Grounding Virtual Intelligence in Real Life [65.87750250364411]
V-IRLは、エージェントが仮想的で現実的な環境で現実世界と対話することを可能にするプラットフォームである。
私たちのプラットフォームは、様々な実践的なタスクを達成できるエージェントを開発するための遊び場として役立ちます。
論文 参考訳(メタデータ) (2024-02-05T18:59:36Z) - Beyond Reality: The Pivotal Role of Generative AI in the Metaverse [98.1561456565877]
本稿では、生成型AI技術がMetaverseをどう形成しているかを包括的に調査する。
我々は、AI生成文字による会話インタフェースを強化しているChatGPTやGPT-3といったテキスト生成モデルの応用を探求する。
また、現実的な仮想オブジェクトを作成する上で、Point-EやLumimithmicのような3Dモデル生成技術の可能性についても検討する。
論文 参考訳(メタデータ) (2023-07-28T05:44:20Z) - Towards Goldilocks Zone in Child-centered AI [0.0]
我々は、子供のAIとのインタラクションプロセスを理解する必要性を論じる。
児童中心AIにおける価値駆動インタラクションを実現するための設計勧告をいくつか提示する。
論文 参考訳(メタデータ) (2023-03-20T15:52:33Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。