論文の概要: Thou Shalt Not Prompt: Zero-Shot Human Activity Recognition in Smart Homes via Language Modeling of Sensor Data & Activities
- arxiv url: http://arxiv.org/abs/2507.21964v1
- Date: Tue, 29 Jul 2025 16:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.657242
- Title: Thou Shalt Not Prompt: Zero-Shot Human Activity Recognition in Smart Homes via Language Modeling of Sensor Data & Activities
- Title(参考訳): Thou Shalt not Prompt:Zero-Shot Human Activity Recognition in Smart Homes via Language Modeling of Sensor Data & Activity
- Authors: Sourish Gunesh Dhekane, Thomas Ploetz,
- Abstract要約: ゼロショットの人間行動認識手法の開発は、スマートホーム研究において重要な方向である。
本稿では,自然言語を用いたセンサデータとアクティビティをモデル化する手法を提案する。
私たちの研究の影響は、6つのデータセットに関する詳細なケーススタディを提示することにあります。
- 参考スコア(独自算出の注目度): 0.11029371407785957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing zero-shot human activity recognition (HAR) methods is a critical direction in smart home research -- considering its impact on making HAR systems work across smart homes having diverse sensing modalities, layouts, and activities of interest. The state-of-the-art solutions along this direction are based on generating natural language descriptions of the sensor data and feeding it via a carefully crafted prompt to the LLM to perform classification. Despite their performance guarantees, such ``prompt-the-LLM'' approaches carry several risks, including privacy invasion, reliance on an external service, and inconsistent predictions due to version changes, making a case for alternative zero-shot HAR methods that do not require prompting the LLMs. In this paper, we propose one such solution that models sensor data and activities using natural language, leveraging its embeddings to perform zero-shot classification and thereby bypassing the need to prompt the LLMs for activity predictions. The impact of our work lies in presenting a detailed case study on six datasets, highlighting how language modeling can bolster HAR systems in zero-shot recognition.
- Abstract(参考訳): ゼロショットのヒューマンアクティビティ認識(HAR)手法の開発は、スマートホーム研究において重要な方向である。
この方向に沿った最先端のソリューションは、センサーデータの自然言語記述を生成し、LLMに慎重に作成されたプロンプトを通じてそれを供給し、分類を実行することに基づいている。
性能保証にもかかわらず、このような `prompt-the-LLM'' アプローチは、プライバシーの侵害、外部サービスへの依存、バージョン変更による一貫性のない予測など、いくつかのリスクを伴っている。
本稿では,自然言語を用いてセンサデータとアクティビティをモデル化し,その埋め込みを利用してゼロショット分類を行い,活動予測のためにLCMを誘導する必要性を回避できる手法を提案する。
私たちの研究は、6つのデータセットに関する詳細なケーススタディを提示し、言語モデリングがHARシステムをゼロショット認識で強化する方法を強調しています。
関連論文リスト
- Leveraging Large Language Models for Explainable Activity Recognition in Smart Homes: A Critical Evaluation [0.29998889086656577]
XAIは、スマートホームにおけるセンサによる日常生活活動(ADL)認識に適用されている。
本稿では,XAIとLarge Language Models(LLM)を組み合わせたセンサを用いたADL認識の可能性について検討する。
論文 参考訳(メタデータ) (2025-03-20T18:23:03Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Language-centered Human Activity Recognition [8.925867647929088]
Inertial Measurement Unit(IMU)センサーを用いたHAR(Human Activity Recognition)は、医療、安全、産業生産における応用において重要である。
アクティビティパターン、デバイスタイプ、センサー配置のバリエーションは、データセット間の分散ギャップを生成する。
本稿では,センサの読み書きとアクティビティラベルのセマンティック解釈を生成するシステムであるLanHARを提案する。
論文 参考訳(メタデータ) (2024-09-12T22:57:29Z) - Layout Agnostic Human Activity Recognition in Smart Homes through Textual Descriptions Of Sensor Triggers (TDOST) [0.22354214294493352]
スマートホームにおけるヒューマンアクティビティ認識(HAR)システムのためのレイアウトに依存しないモデリング手法を開発した。
我々は、周囲のトリガー条件をカプセル化するセンサートリガーのテキスト記述(TDOST)を生成する。
我々は、ベンチマークしたCASASデータセットの実験を通して、見知らぬスマートホームにおけるTDOSTベースのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T20:37:44Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。