論文の概要: PILAR: Personalizing Augmented Reality Interactions with LLM-based Human-Centric and Trustworthy Explanations for Daily Use Cases
- arxiv url: http://arxiv.org/abs/2512.17172v1
- Date: Fri, 19 Dec 2025 02:19:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.218824
- Title: PILAR: Personalizing Augmented Reality Interactions with LLM-based Human-Centric and Trustworthy Explanations for Daily Use Cases
- Title(参考訳): PILAR:LLMをベースとした人間中心的・信頼できる日常的事例説明による拡張現実インタラクションのパーソナライズ
- Authors: Ripan Kumar Kundu, Istiak Ahmed, Khaza Anuarul Hoque,
- Abstract要約: 文脈認識型パーソナライズされた説明を生成する新しいフレームワークであるPILARを提案する。
PILARはLLMベースの統一アプローチを採用しており、ユーザーの要求に応じて動的に説明を適応させる。
私たちは現実世界のARアプリケーション(例えばパーソナライズされたレシピレコメンデーション)にPILARを実装しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial intelligence (AI)-driven augmented reality (AR) systems are becoming increasingly integrated into daily life, and with this growth comes a greater need for explainability in real-time user interactions. Traditional explainable AI (XAI) methods, which often rely on feature-based or example-based explanations, struggle to deliver dynamic, context-specific, personalized, and human-centric insights for everyday AR users. These methods typically address separate explainability dimensions (e.g., when, what, how) with different explanation techniques, resulting in unrealistic and fragmented experiences for seamless AR interactions. To address this challenge, we propose PILAR, a novel framework that leverages a pre-trained large language model (LLM) to generate context-aware, personalized explanations, offering a more intuitive and trustworthy experience in real-time AI-powered AR systems. Unlike traditional methods, which rely on multiple techniques for different aspects of explanation, PILAR employs a unified LLM-based approach that dynamically adapts explanations to the user's needs, fostering greater trust and engagement. We implement the PILAR concept in a real-world AR application (e.g., personalized recipe recommendations), an open-source prototype that integrates real-time object detection, recipe recommendation, and LLM-based personalized explanations of the recommended recipes based on users' dietary preferences. We evaluate the effectiveness of PILAR through a user study with 16 participants performing AR-based recipe recommendation tasks, comparing an LLM-based explanation interface to a traditional template-based one. Results show that the LLM-based interface significantly enhances user performance and experience, with participants completing tasks 40% faster and reporting greater satisfaction, ease of use, and perceived transparency.
- Abstract(参考訳): 人工知能(AI)による拡張現実(AR)システムは、日々の生活にますます統合されつつある。
伝統的に説明可能なAI(XAI)メソッドは、しばしば機能ベースの、あるいは例ベースの説明に依存し、日々のARユーザに動的、コンテキスト固有の、パーソナライズされた、人間中心の洞察を提供することに苦労する。
これらの手法は通常、異なる説明可能性次元(例えば、いつ、何、どのように、どのように)に異なる説明技法で対処し、シームレスなARインタラクションのための非現実的で断片的な体験をもたらす。
この課題に対処するために、PILARは、トレーニング済みの大規模言語モデル(LLM)を活用して、コンテキスト対応でパーソナライズされた説明を生成し、リアルタイムAIによるARシステムにおいてより直感的で信頼性の高いエクスペリエンスを提供する、新しいフレームワークを提案する。
説明のさまざまな側面に複数のテクニックを頼りにしている従来の手法とは異なり、PILARはLLMベースの統一アプローチを採用しており、ユーザーの要求に動的に説明を適応させ、より信頼とエンゲージメントを高める。
我々は、PILARの概念を現実世界のARアプリケーション(例えば、パーソナライズされたレシピレコメンデーション)に実装し、リアルタイムなオブジェクト検出、レシピレコメンデーション、LLMに基づく推奨レシピのパーソナライズされた説明をユーザーの食事嗜好に基づいて統合するオープンソースのプロトタイプを構築した。
我々は、従来のテンプレートベースとLLMベースの説明インタフェースを比較して、ARベースのレシピレコメンデーションタスクを行う16人の被験者を対象に、PILARの有効性を評価した。
その結果、LCMベースのインターフェースはユーザパフォーマンスとエクスペリエンスを著しく向上させ、参加者はタスクを40%早く完了し、より満足度、使いやすさ、透明性を報告した。
関連論文リスト
- Fun-ASR Technical Report [89.84148151617022]
本稿では,大規模データ,大規模モデル容量,LLM統合,強化学習を組み合わせた大規模ALSシステムFun-ASRを提案する。
Fun-ASRは特に実用的なデプロイメントに最適化されており、ストリーミング機能、ノイズの堅牢性、コードスイッチング、ホットワードのカスタマイズ、その他の現実世界のアプリケーション要件を満たすことができる。
運用指向の最適化により、Fun-ASRは実際のアプリケーションデータセット上での最先端のパフォーマンスを実現し、実用的設定におけるその有効性と堅牢性を示す。
論文 参考訳(メタデータ) (2025-09-15T23:19:36Z) - Improving LLM Agent Planning with In-Context Learning via Atomic Fact Augmentation and Lookahead Search [48.348209577994865]
大規模言語モデル(LLM)はますます有能になるが、複雑で対話的な環境で効果的に機能するためには、重要なガイダンスや広範な相互作用履歴を必要とすることが多い。
テキスト内学習による計画能力を高める新しいLLMエージェントフレームワークを提案する。
我々のエージェントは、その相互作用軌跡からタスククリティカルな原子事実'を抽出することを学ぶ。
論文 参考訳(メタデータ) (2025-06-10T18:36:31Z) - Dynamic benchmarking framework for LLM-based conversational data capture [0.0]
本稿では,大規模言語モデル(LLM)を評価するためのベンチマークフレームワークを提案する。
生成エージェントシミュレーションを統合して、情報抽出、コンテキスト認識、適応エンゲージメントといった重要次元のパフォーマンスを評価する。
その結果,不明瞭な応答を扱う場合,適応戦略によりデータの抽出精度が向上することが示唆された。
論文 参考訳(メタデータ) (2025-02-04T15:47:47Z) - Adaptive Self-Supervised Learning Strategies for Dynamic On-Device LLM Personalization [3.1944843830667766]
大規模言語モデル(LLM)は私たちがテクノロジと対話する方法に革命をもたらしたが、個々のユーザの好みに対するパーソナライズは依然として大きな課題である。
本稿では,LSMを動的にパーソナライズするために自己指導型学習技術を利用する適応型自己監督学習戦略(ASLS)を提案する。
論文 参考訳(メタデータ) (2024-09-25T14:35:06Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - Towards Boosting LLMs-driven Relevance Modeling with Progressive Retrieved Behavior-augmented Prompting [23.61061000692023]
本研究では,検索ログに記録されたユーザインタラクションを活用して,ユーザの暗黙の検索意図に対する洞察を得ることを提案する。
ProRBPは,探索シナリオ指向の知識を大規模言語モデルと統合するための,プログレッシブ検索行動拡張型プロンプトフレームワークである。
論文 参考訳(メタデータ) (2024-08-18T11:07:38Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Understanding Large Language Model Behaviors through Interactive Counterfactual Generation and Analysis [22.755345889167934]
本稿では,大規模言語モデル (LLM) の対実解析による探索を可能にする対話型可視化システムを提案する。
本システムは,意味論的に意味のある反事実を生成する新しいアルゴリズムを特徴とする。
LLM実践者とのユーザスタディと専門家とのインタビューは、システムのユーザビリティと有効性を示している。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。