論文の概要: Enhancing Smart Environments with Context-Aware Chatbots using Large Language Models
- arxiv url: http://arxiv.org/abs/2502.14469v1
- Date: Thu, 20 Feb 2025 11:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:29:12.879510
- Title: Enhancing Smart Environments with Context-Aware Chatbots using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたコンテキスト認識型チャットボットによるスマート環境の強化
- Authors: Aurora Polo-Rodríguez, Laura Fiorini, Erika Rovini, Filippo Cavallo, Javier Medina-Quero,
- Abstract要約: 本研究は,Large Language Models(LLM)を活用してユーザエクスペリエンスを向上させる,スマート環境内のコンテキスト認識インタラクションのための新しいアーキテクチャを提案する。
本システムでは,UWBタグやセンサ付きスマートホームから得られたユーザ位置情報を,リアルタイムなヒューマンアクティビティ認識(HAR)と統合し,ユーザコンテキストの包括的理解を提供する。
その結果,LLMとリアルタイムのアクティビティと位置情報を統合することで,個人化されたコンテキストに関連のあるユーザエクスペリエンスを提供するという大きなメリットが浮き彫りになった。
- 参考スコア(独自算出の注目度): 1.6672326114795073
- License:
- Abstract: This work presents a novel architecture for context-aware interactions within smart environments, leveraging Large Language Models (LLMs) to enhance user experiences. Our system integrates user location data obtained through UWB tags and sensor-equipped smart homes with real-time human activity recognition (HAR) to provide a comprehensive understanding of user context. This contextual information is then fed to an LLM-powered chatbot, enabling it to generate personalised interactions and recommendations based on the user's current activity and environment. This approach moves beyond traditional static chatbot interactions by dynamically adapting to the user's real-time situation. A case study conducted from a real-world dataset demonstrates the feasibility and effectiveness of our proposed architecture, showcasing its potential to create more intuitive and helpful interactions within smart homes. The results highlight the significant benefits of integrating LLM with real-time activity and location data to deliver personalised and contextually relevant user experiences.
- Abstract(参考訳): 本研究は,Large Language Models(LLM)を活用してユーザエクスペリエンスを向上させる,スマート環境内のコンテキスト認識インタラクションのための新しいアーキテクチャを提案する。
本システムでは,UWBタグやセンサ付きスマートホームから得られたユーザ位置情報を,リアルタイムなヒューマンアクティビティ認識(HAR)と統合し,ユーザコンテキストの包括的理解を提供する。
このコンテキスト情報はLLMを利用したチャットボットに送られ、ユーザの現在の活動と環境に基づいて個人化されたインタラクションとレコメンデーションを生成する。
このアプローチは、ユーザのリアルタイム状況に動的に適応することによって、従来の静的チャットボットインタラクションを越えている。
実世界のデータセットから実施されたケーススタディでは、提案したアーキテクチャの実現可能性と有効性を示し、スマートホーム内でより直感的で有用なインタラクションを生み出す可能性を示している。
その結果,LLMとリアルタイムのアクティビティと位置情報を統合することで,個人化されたコンテキストに関連のあるユーザエクスペリエンスを提供するという大きなメリットが浮き彫りになった。
関連論文リスト
- Collaborative Instance Navigation: Leveraging Agent Self-Dialogue to Minimize User Input [54.81155589931697]
我々は,ナビゲーション中の動的エージェントと人間との相互作用を考慮したCoIN(Collaborative Instance Navigation)を提案する。
CoINに対処するために,新しいエージェント・ユーザ・インタラクションとUncerTainty Awareness (AIUTA)を提案する。
AIUTAは、最先端のメソッドに対するナビゲーションにおける競合的なパフォーマンスを実現し、ユーザの入力を処理する際の柔軟性を示している。
論文 参考訳(メタデータ) (2024-12-02T08:16:38Z) - CON: Continual Object Navigation via Data-Free Inter-Agent Knowledge Transfer in Unseen and Unfamiliar Places [1.474723404975345]
本研究は,ロボット物体目標ナビゲーション(ON)を強化するため,短時間のエージェント間知識伝達(KT)の可能性を探るものである。
私たちはこのプロセスを,ブラックボックスモデル(教師)から新しいモデル(学生)への知識伝達を目的とした,データフリー連続学習(CL)チャレンジとして捉えています。
このギャップに対処するために,オープンワールド環境における非協力的なブラックボックス教師を対象とした,軽量でプラグ&プレイ可能なKTモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-23T10:50:11Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - SituationalLLM: Proactive language models with scene awareness for dynamic, contextual task guidance [13.155859243167619]
本研究では,構造化シーン情報を大規模言語モデルに統合する新しいアプローチである PresentalLLM を提案する。
カスタムのScene Graph Languageでオブジェクト、属性、関係をエンコードすることで、AciencealLLMは環境コンテキストのギャップを積極的に識別し、ユーザインタラクション中に明確化を求める。
実験結果から、ALLLMはタスク特異性、信頼性、適応性において、ジェネリックLLMベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T07:42:48Z) - VR-GPT: Visual Language Model for Intelligent Virtual Reality Applications [2.5022287664959446]
本研究では,VR環境における視覚言語モデルを用いたユーザインタラクションとタスク効率向上のための先駆的アプローチを提案する。
本システムは,視覚的テキスト命令に頼ることなく,自然言語処理によるリアルタイム・直感的なユーザインタラクションを支援する。
論文 参考訳(メタデータ) (2024-05-19T12:56:00Z) - On the Multi-turn Instruction Following for Conversational Web Agents [83.51251174629084]
本稿では,ユーザと環境の両方で複数回にまたがる高度なインタラクションを必要とする,対話型Webナビゲーションの新たなタスクを紹介する。
本稿では,メモリ利用と自己回帰技術を用いた自己反射型メモリ拡張計画(Self-MAP)を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:18:12Z) - Beyond ChatBots: ExploreLLM for Structured Thoughts and Personalized
Model Responses [35.74453152447319]
ExploreLLMは、ユーザが思考を構造化し、さまざまな選択肢を探索し、選択とレコメンデーションをナビゲートし、よりパーソナライズされたレスポンスを生成するために、より簡単にモデルをステアリングすることを可能にする。
本研究では,探索的・計画的なタスクにExploreLLMを使うことが有用であることを示す。
この研究は、ExploreLLMで高レベルな好みで応答をより簡単にパーソナライズできることを示唆している。
論文 参考訳(メタデータ) (2023-12-01T18:31:28Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - On-device modeling of user's social context and familiar places from
smartphone-embedded sensor data [7.310043452300736]
ユーザの社会的文脈とその位置をモデル化するための,新しい,教師なし,軽量なアプローチを提案する。
ユーザとそのデバイス間の物理的およびサイバー的ソーシャルインタラクションに関連するデータを活用する。
日常の状況を認識するための3つの機械学習アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2022-05-18T08:32:26Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。