論文の概要: Knowledge Distillation for LLM-Based Human Activity Recognition in Homes
- arxiv url: http://arxiv.org/abs/2601.07469v1
- Date: Mon, 12 Jan 2026 12:25:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.373242
- Title: Knowledge Distillation for LLM-Based Human Activity Recognition in Homes
- Title(参考訳): 家庭におけるLCMに基づく人間活動認識のための知識蒸留
- Authors: Julien Cumin, Oussama Er-Rahmany, Xi Chen,
- Abstract要約: 大規模言語モデル(LLM)は、自宅でのHAR(Human Activity Recognition)に使用することができる。
LLMのサイズによって認識性能がどう変化するかを示す。
このような微調整モデルでは,パラメータが50倍少なく,最大LLMとほぼ同等に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 3.900128969292833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) is a central problem for context-aware applications, especially for smart homes and assisted living. A few very recent studies have shown that Large Language Models (LLMs) can be used for HAR at home, reaching high performance and addressing key challenges. In this paper, we provide new experimental results regarding the use of LLMs for HAR, on two state-of-the-art datasets. More specifically, we show how recognition performance evolves depending on the size of the LLM used. Moreover, we experiment on the use of knowledge distillation techniques to fine-tune smaller LLMs with HAR reasoning examples generated by larger LLMs. We show that such fine-tuned models can perform almost as well as the largest LLMs, while having 50 times less parameters.
- Abstract(参考訳): HAR(Human Activity Recognition)は、コンテキスト認識アプリケーション、特にスマートホームや生活支援のための中心的な問題である。
ごく最近の研究では、大規模言語モデル(LLM)が家庭でのHARに使用でき、高性能に到達し、重要な課題に対処できることが示されている。
本稿では,HAR における LLM の使用に関する新たな実験結果について述べる。
より具体的には、LLMのサイズに応じて認識性能がどのように進化するかを示す。
さらに,より大型のLLMが生成するHAR推論例を用いて,より小型のLLMを微調整するための知識蒸留技術を用いた実験を行った。
このような微調整モデルでは,パラメータが50倍少なく,最大LLMとほぼ同等に動作可能であることを示す。
関連論文リスト
- Should You Use Your Large Language Model to Explore or Exploit? [57.98066234509361]
探索・探索トレードオフに直面した意思決定エージェントを支援するために,大規模言語モデルの能力を評価する。
現在のLLMは、しばしば利用に苦労するが、小規模タスクのパフォーマンスを大幅に改善するために、コンテキスト内緩和が用いられる可能性がある。
論文 参考訳(メタデータ) (2025-01-31T23:42:53Z) - AI Meets the Classroom: When Do Large Language Models Harm Learning? [0.0]
大規模言語モデル(LLM)が学習結果に与える影響は,利用行動に依存することを示す。
LLMは学習を改善する大きな可能性を示しているが、それらの使用は教育的な文脈に合わせて調整されなければならない。
論文 参考訳(メタデータ) (2024-08-29T17:07:46Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。