論文の概要: HARGPT: Are LLMs Zero-Shot Human Activity Recognizers?
- arxiv url: http://arxiv.org/abs/2403.02727v1
- Date: Tue, 5 Mar 2024 07:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:51:06.177879
- Title: HARGPT: Are LLMs Zero-Shot Human Activity Recognizers?
- Title(参考訳): HARGPT:LLMはゼロショット人間活動認識器か?
- Authors: Sijie Ji, Xinzhe Zheng, Chenshu Wu
- Abstract要約: 我々は,Large Language Models (LLM) が生のIMUデータを理解し,ゼロショットで人間の活動認識タスクを実行できることを示す。
我々は、GPT4上のHARGPTを、クラス間の類似性の異なる2つの公開データセットを用いてベンチマークし、従来の機械学習と最先端の深い分類モデルの両方に基づいて、様々なベースラインを比較した。
注目すべきは、LLMは生のIMUデータから人間の活動を認識し、両方のデータセットのベースラインを一貫して上回っていることだ。
- 参考スコア(独自算出の注目度): 9.414529772034985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an ongoing debate regarding the potential of Large Language Models
(LLMs) as foundational models seamlessly integrated with Cyber-Physical Systems
(CPS) for interpreting the physical world. In this paper, we carry out a case
study to answer the following question: Are LLMs capable of zero-shot human
activity recognition (HAR). Our study, HARGPT, presents an affirmative answer
by demonstrating that LLMs can comprehend raw IMU data and perform HAR tasks in
a zero-shot manner, with only appropriate prompts. HARGPT inputs raw IMU data
into LLMs and utilizes the role-play and think step-by-step strategies for
prompting. We benchmark HARGPT on GPT4 using two public datasets of different
inter-class similarities and compare various baselines both based on
traditional machine learning and state-of-the-art deep classification models.
Remarkably, LLMs successfully recognize human activities from raw IMU data and
consistently outperform all the baselines on both datasets. Our findings
indicate that by effective prompting, LLMs can interpret raw IMU data based on
their knowledge base, possessing a promising potential to analyze raw sensor
data of the physical world effectively.
- Abstract(参考訳): 物理世界を理解するために,Cyber-Physical Systems (CPS)とシームレスに統合された基礎モデルとして,LLM(Large Language Models)の可能性について議論が続いている。
本稿では, ゼロショット人間行動認識(HAR)が可能なLDMについて, 以下の疑問に答えるために, ケーススタディを実施している。
HARGPTは,LLMが生のIMUデータを理解し,ゼロショット方式でHARタスクを適切なプロンプトのみで実行できることを示し,肯定的な回答を示す。
HARGPTは生のIMUデータをLSMに入力し、ロールプレイとステップバイステップ戦略を利用してプロンプトを行う。
異なるクラス間類似性を持つ2つの公開データセットを用いて,gpt4上でhargptをベンチマークし,従来の機械学習と最先端の深層分類モデルに基づいて,さまざまなベースラインを比較した。
注目すべきは、LLMは生のIMUデータから人間の活動を認識し、両方のデータセットのベースラインを一貫して上回っていることだ。
以上の結果から,LLMは知識ベースに基づいて生のIMUデータを解釈し,実世界の生のセンサデータを効果的に分析する有望な可能性を秘めていることが明らかとなった。
関連論文リスト
- Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - Mitigating Catastrophic Forgetting in Large Language Models with
Self-Synthesized Rehearsal [51.36134981232229]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Unsupervised Information Refinement Training of Large Language Models
for Retrieval-Augmented Generation [133.52393894760107]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language
Models [56.84735912476625]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Measuring Distributional Shifts in Text: The Advantage of Language
Model-Based Embeddings [11.393822909537796]
実運用における機械学習モデル監視の重要な部分は、入力と出力データのドリフトを測定することである。
大規模言語モデル(LLM)の最近の進歩は、意味的関係を捉える上での有効性を示している。
このような埋め込みを利用してテキストデータの分布変化を測定するクラスタリングに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-04T20:46:48Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Large Language Models as Data Preprocessors [10.914067455923847]
OpenAIのGPTシリーズとMetaのLLaMAに代表されるLarge Language Models (LLMs)は、人工知能において大きな進歩を遂げている。
この研究は、LLMの応用を拡大し、データ前処理におけるその可能性を探る。
我々は,最先端のプロンプト技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - Fairness of ChatGPT and the Role Of Explainable-Guided Prompts [6.079011829257036]
本研究では,大規模言語モデル(LLM),特に OpenAI の GPT の信用リスク評価における可能性について検討する。
この結果から,LLMは従来の機械学習(ML)モデルの性能を並列化できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-14T09:20:16Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。