論文の概要: Memento: Towards Proactive Visualization of Everyday Memories with Personal Wearable AR Assistant
- arxiv url: http://arxiv.org/abs/2601.17622v3
- Date: Sat, 31 Jan 2026 01:46:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 15:03:50.498536
- Title: Memento: Towards Proactive Visualization of Everyday Memories with Personal Wearable AR Assistant
- Title(参考訳): Memento:パーソナライズ可能なARアシスタントによる日常記憶の積極的な可視化を目指して
- Authors: Yoonsang Kim, Yalong Yang, Arie E. Kaufman,
- Abstract要約: 我々は,会話型ARアシスタントであるMementoを紹介した。
記憶: Mementoは、ユーザの繰り返し関心とそれらを引き起こすコンテキストとの間の関係を発見する。
我々は,没入型アプリにおける多様な専門知識の参加者を対象に,ユーザからのフィードバックを通じて事前評価を行う。
- 参考スコア(独自算出の注目度): 14.525115215917657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Memento, a conversational AR assistant that permanently captures and memorizes user's verbal queries alongside their spatiotemporal and activity contexts. By storing these "memories," Memento discovers connections between users' recurring interests and the contexts that trigger them. Upon detection of similar or identical spatiotemporal activity, Memento proactively recalls user interests and delivers up-to-date responses through AR, seamlessly integrating AR experience into their daily routine. Unlike prior work, each interaction in Memento is not a transient event, but a connected series of interactions with coherent long--term perspective, tailored to the user's broader multimodal (visual, spatial, temporal, and embodied) context. We conduct a preliminary evaluation through user feedbacks with participants of diverse expertise in immersive apps, and explore the value of proactive context-aware AR assistant in everyday settings. We share our findings and challenges in designing a proactive, context-aware AR system.
- Abstract(参考訳): 我々は,会話型ARアシスタントであるMementoを紹介した。
これらの「記憶」を記憶することで、Mementoはユーザーの繰り返し興味とそれらを引き起こすコンテキストの間のつながりを発見する。
同一あるいは同一の時空間アクティビティを検出すると、Mementoはユーザの関心を積極的にリコールし、ARを通じて最新のレスポンスを提供し、ARエクスペリエンスを日常のルーチンにシームレスに統合する。
従来の作業とは異なり、Mementoの各インタラクションは一時的なイベントではなく、ユーザのより広いマルチモーダル(視覚的、空間的、時間的、身体的)コンテキストに合わせて、コヒーレントな長期的な視点と接続された一連のインタラクションである。
我々は,没入型アプリにおける多様な専門知識を持つ参加者を対象に,ユーザからのフィードバックを通じて事前評価を行い,日常的な環境下でのアクティブなコンテキスト認識ARアシスタントの価値について検討する。
プロアクティブでコンテキスト対応のARシステムを設計する上での私たちの発見と課題を共有します。
関連論文リスト
- Do LLMs Benefit From Their Own Words? [56.73014497206615]
先行するアシスタント応答の除去は,少数のターンにおいて応答品質に影響を与えないことがわかった。
アシスタント側コンテキストのオミッティングは、累積コンテキストの長さを最大10倍に減らすことができる。
本研究は, 記憶量削減を図り, アシスタント履歴を選択的に省略することで, 応答品質を向上できることを示唆する。
論文 参考訳(メタデータ) (2026-02-27T18:58:26Z) - Proactive Conversational Assistant for a Procedural Manual Task based on Audio and IMU [7.116403133334644]
本稿では,軽量なプライバシ保存モダリティのみを用いて,手続き的タスクに対する包括的ガイダンスを提供するリアルタイム対話アシスタントを提案する。
家具組み立て作業を行うユーザに対して、ステップバイステップの指示を積極的に伝達し、ユーザの質問に答える。
論文 参考訳(メタデータ) (2026-02-17T16:41:51Z) - SpeechLess: Micro-utterance with Personalized Spatial Memory-aware Assistant in Everyday Augmented Reality [6.523396381538382]
SpeechLessは、パーソナライズされた空間記憶を基盤とした音声ベースの意図制御パラダイムを導入するウェアラブルARアシスタントである。
以上の結果から,SpeechLessは日常的な情報アクセスの向上,調音努力の削減,社会的に許容できる使用支援を,多様な日常生活環境において知覚されたユーザビリティや意図決定の精度を著しく低下させることなく実現できることが示唆された。
論文 参考訳(メタデータ) (2026-01-31T16:01:32Z) - O-Mem: Omni Memory System for Personalized, Long Horizon, Self-Evolving Agents [60.1848551962911]
O-Memはアクティブユーザプロファイリングに基づく新しいメモリフレームワークである。
O-Memはペルソナ属性とトピック関連コンテキストの階層的検索をサポートする。
論文 参考訳(メタデータ) (2025-11-17T16:55:19Z) - Mem-PAL: Towards Memory-based Personalized Dialogue Assistants for Long-term User-Agent Interaction [55.24448139349266]
PAL-Benchは、長期ユーザエージェントインタラクションにおけるサービス指向アシスタントのパーソナライズ機能を評価するために設計された新しいベンチマークである。
サービス指向のインタラクションをパーソナライズするために、階層的で異質なメモリフレームワークであるH$2$Memoryを提案する。
論文 参考訳(メタデータ) (2025-11-17T14:22:32Z) - Creating General User Models from Computer Use [53.59999173952482]
本稿では,コンピュータとのインタラクションを観察することでユーザについて学習する汎用ユーザモデル(GUM)のアーキテクチャを提案する。
GUMは、ユーザ(例えばデバイスのスクリーンショット)の非構造化観察を入力として受け取り、ユーザの知識と好みをキャプチャする信頼度重み付け命題を構築する。
論文 参考訳(メタデータ) (2025-05-16T04:00:31Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Exploring Rewriting Approaches for Different Conversational Tasks [63.56404271441824]
正確な書き換えアプローチは、しばしば、会話アシスタントによってサポートされているユースケースとアプリケーション固有のタスクに依存します。
基本的に異なる2つの生成タスクに対して,書き換えと融合という2つの異なるアプローチを体系的に検討した。
以上の結果から, 特定の書き換え手法や融合手法は, 基礎となるユースケースや生成課題に大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2025-02-26T06:05:29Z) - IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - OmniQuery: Contextually Augmenting Captured Multimodal Memory to Enable Personal Question Answering [3.8233569758620063]
複雑な個人記憶に関する質問に答えられる新しいシステムであるOmniQueryを紹介する。
質問に対して、OmniQueryは関連する拡張メモリを取得し、大きな言語モデル(LLM)を使用して参照による回答を生成する。
人間の評価では,71.5%の精度でOmniQueryの有効性を示す。
論文 参考訳(メタデータ) (2024-09-12T17:48:08Z) - Augmented Conversation with Embedded Speech-Driven On-the-Fly Referencing in AR [16.50212867051533]
本稿では,拡張会話の概念を紹介する。
拡張現実(AR)における組込み音声駆動型オンザフライ会議による共同会話を支援することを目的とする。
論文 参考訳(メタデータ) (2024-05-28T19:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。