論文の概要: Large Language Models are Zero-Shot Recognizers for Activities of Daily Living
- arxiv url: http://arxiv.org/abs/2407.01238v2
- Date: Tue, 08 Oct 2024 13:31:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:29:29.188302
- Title: Large Language Models are Zero-Shot Recognizers for Activities of Daily Living
- Title(参考訳): 大言語モデルは日常生活活動のためのゼロショット認識器である
- Authors: Gabriele Civitarese, Michele Fiori, Priyankar Choudhary, Claudio Bettini,
- Abstract要約: LLMに基づく新しいADL認識システムであるADL-LLMを提案する。
ADL-LLMは、生センサデータをLLMによって処理されたテキスト表現に変換し、ゼロショットADL認識を行う。
ADL-LLMを2つの公開データセット上で評価し,その有効性を示した。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License:
- Abstract: The sensor-based recognition of Activities of Daily Living (ADLs) in smart home environments enables several applications in the areas of energy management, safety, well-being, and healthcare. ADLs recognition is typically based on deep learning methods requiring large datasets to be trained. Recently, several studies proved that Large Language Models (LLMs) effectively capture common-sense knowledge about human activities. However, the effectiveness of LLMs for ADLs recognition in smart home environments still deserves to be investigated. In this work, we propose ADL-LLM, a novel LLM-based ADLs recognition system. ADLLLM transforms raw sensor data into textual representations, that are processed by an LLM to perform zero-shot ADLs recognition. Moreover, in the scenario where a small labeled dataset is available, ADL-LLM can also be empowered with few-shot prompting. We evaluated ADL-LLM on two public datasets, showing its effectiveness in this domain.
- Abstract(参考訳): スマートホーム環境における日常生活活動(ADL)のセンサベース認識は、エネルギー管理、安全、幸福、医療の分野におけるいくつかの応用を可能にする。
ADLの認識は通常、大規模なデータセットのトレーニングを必要とするディープラーニング手法に基づいている。
近年,Large Language Models (LLMs) が人間の活動に関する常識的知識を効果的に捉えていることがいくつかの研究で証明されている。
しかし, スマートホーム環境におけるALD認識におけるLCMの有効性は検討すべきである。
本研究では,LLMに基づく新しいADL認識システムであるADL-LLMを提案する。
ADLLLMは、生センサデータをLLMによって処理されたテキスト表現に変換し、ゼロショットADL認識を行う。
さらに、小さなラベル付きデータセットが利用できるシナリオでは、ADL-LLMは、数発のプロンプトで強化することもできる。
ADL-LLMを2つの公開データセットで評価し,その有効性を示した。
関連論文リスト
- LLAVIDAL: Benchmarking Large Language Vision Models for Daily Activities of Living [14.461123324732451]
LLAVIDALは,ADL内の複雑な関係を理解するために,関連する3次元ポーズと関連するオブジェクト軌跡を組み込むLLVMである。
ADL-Xでトレーニングすると、LLAVIDALはすべてのADL評価指標に対して一貫して最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-13T17:59:05Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - HARGPT: Are LLMs Zero-Shot Human Activity Recognizers? [9.414529772034985]
我々は,Large Language Models (LLM) が生のIMUデータを理解し,ゼロショットで人間の活動認識タスクを実行できることを示す。
我々は、GPT4上のHARGPTを、クラス間の類似性の異なる2つの公開データセットを用いてベンチマークし、従来の機械学習と最先端の深い分類モデルの両方に基づいて、様々なベースラインを比較した。
注目すべきは、LLMは生のIMUデータから人間の活動を認識し、両方のデータセットのベースラインを一貫して上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T07:34:51Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - FreeAL: Towards Human-Free Active Learning in the Era of Large Language
Models [21.88032973150393]
大規模言語モデル(LLM)からのタスク固有知識の対話的蒸留とフィルタリング
8つのベンチマークデータセットの実験では、FreeALは人間の監督なしに、SLMとLLMのゼロショット性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-27T08:23:08Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。