論文の概要: Memento: Towards Proactive Visualization of Everyday Memories with Personal Wearable AR Assistant
- arxiv url: http://arxiv.org/abs/2601.17622v1
- Date: Sat, 24 Jan 2026 22:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.098755
- Title: Memento: Towards Proactive Visualization of Everyday Memories with Personal Wearable AR Assistant
- Title(参考訳): Memento:パーソナライズ可能なARアシスタントによる日常記憶の積極的な可視化を目指して
- Authors: Yoonsang Kim, Yalong Yang, Arie E. Kaufman,
- Abstract要約: 我々は,会話型ARアシスタントであるMementoを紹介した。
記憶: Mementoは、ユーザの繰り返し発生する関心と、それらを引き起こすコンテキストの間のつながりを発見する。
我々は,没入型アプリにおける多様な専門知識の参加者を対象に,ユーザからのフィードバックを通じて事前評価を行う。
- 参考スコア(独自算出の注目度): 14.525115215917657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Memento, a conversational AR assistant that permanently captures and memorizes user's verbal queries alongside their spatiotemporal and activity contexts. By storing these "memories," Memento discovers connections between users' recurring interests and the contexts that trigger them. Upon detection of similar or identical spatiotemporal activity, Memento proactively recalls user interests and delivers up-to-date responses through AR, seamlessly integrating AR experience into their daily routine. Unlike prior work, each interaction in Memento is not a transient event, but a connected series of interactions with coherent long--term perspective, tailored to the user's broader multimodal (visual, spatial, temporal, and embodied) context. We conduct preliminary evaluation through user feedbacks with participants of diverse expertise in immersive apps, and explore the value of proactive context-aware AR assistant in everyday settings. We share our findings and challenges in designing a proactive, context-aware AR system.
- Abstract(参考訳): 我々は,会話型ARアシスタントであるMementoを紹介した。
これらの「記憶」を記憶することで、Mementoはユーザーの繰り返し興味とそれらを引き起こすコンテキストの間のつながりを発見する。
同一あるいは同一の時空間アクティビティを検出すると、Mementoはユーザの関心を積極的にリコールし、ARを通じて最新のレスポンスを提供し、ARエクスペリエンスを日常のルーチンにシームレスに統合する。
従来の作業とは異なり、Mementoの各インタラクションは一時的なイベントではなく、ユーザのより広いマルチモーダル(視覚的、空間的、時間的、身体的)コンテキストに合わせて、コヒーレントな長期的な視点と接続された一連のインタラクションである。
我々は,没入型アプリにおける多様な専門知識を持つ参加者とのユーザフィードバックを通じて,事前評価を行い,日常的な環境下でのアクティブなコンテキスト認識ARアシスタントの価値について検討する。
プロアクティブでコンテキスト対応のARシステムを設計する上での私たちの発見と課題を共有します。
関連論文リスト
- O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Mem-PAL: Towards Memory-based Personalized Dialogue Assistants for Long-term User-Agent Interaction [55.24448139349266]
PAL-Benchは、長期ユーザエージェントインタラクションにおけるサービス指向アシスタントのパーソナライズ機能を評価するために設計された新しいベンチマークである。
サービス指向のインタラクションをパーソナライズするために、階層的で異質なメモリフレームワークであるH$2$Memoryを提案する。
論文 参考訳(メタデータ) (2025-11-17T14:22:32Z) - Creating General User Models from Computer Use [53.59999173952482]
本稿では,コンピュータとのインタラクションを観察することでユーザについて学習する汎用ユーザモデル(GUM)のアーキテクチャを提案する。
GUMは、ユーザ(例えばデバイスのスクリーンショット)の非構造化観察を入力として受け取り、ユーザの知識と好みをキャプチャする信頼度重み付け命題を構築する。
論文 参考訳(メタデータ) (2025-05-16T04:00:31Z) - IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - OmniQuery: Contextually Augmenting Captured Multimodal Memory to Enable Personal Question Answering [3.8233569758620063]
複雑な個人記憶に関する質問に答えられる新しいシステムであるOmniQueryを紹介する。
質問に対して、OmniQueryは関連する拡張メモリを取得し、大きな言語モデル(LLM)を使用して参照による回答を生成する。
人間の評価では,71.5%の精度でOmniQueryの有効性を示す。
論文 参考訳(メタデータ) (2024-09-12T17:48:08Z) - Augmented Conversation with Embedded Speech-Driven On-the-Fly Referencing in AR [16.50212867051533]
本稿では,拡張会話の概念を紹介する。
拡張現実(AR)における組込み音声駆動型オンザフライ会議による共同会話を支援することを目的とする。
論文 参考訳(メタデータ) (2024-05-28T19:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。