論文の概要: RAG-HAR: Retrieval Augmented Generation-based Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2512.08984v1
- Date: Sat, 06 Dec 2025 01:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.246072
- Title: RAG-HAR: Retrieval Augmented Generation-based Human Activity Recognition
- Title(参考訳): RAG-HAR:検索型世代別人間活動認識
- Authors: Nirhoshan Sivaroopan, Hansi Karunarathna, Chamara Madarasingha, Anura Jayasumana, Kanchana Thilakarathna,
- Abstract要約: 大規模言語モデル(LLMs)を利用したHAR(Human Activity Recognition)のためのトレーニング不要検索拡張フレームワークであるRAG-HARを紹介する。
RAG-HARは軽量な統計記述子を計算し、ベクトルデータベースから意味論的に類似したサンプルを検索し、この文脈的エビデンスを用いてLCMに基づく行動識別を行う。
- 参考スコア(独自算出の注目度): 5.089700375729287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human Activity Recognition (HAR) underpins applications in healthcare, rehabilitation, fitness tracking, and smart environments, yet existing deep learning approaches demand dataset-specific training, large labeled corpora, and significant computational resources.We introduce RAG-HAR, a training-free retrieval-augmented framework that leverages large language models (LLMs) for HAR. RAG-HAR computes lightweight statistical descriptors, retrieves semantically similar samples from a vector database, and uses this contextual evidence to make LLM-based activity identification. We further enhance RAG-HAR by first applying prompt optimization and introducing an LLM-based activity descriptor that generates context-enriched vector databases for delivering accurate and highly relevant contextual information. Along with these mechanisms, RAG-HAR achieves state-of-the-art performance across six diverse HAR benchmarks. Most importantly, RAG-HAR attains these improvements without requiring model training or fine-tuning, emphasizing its robustness and practical applicability. RAG-HAR moves beyond known behaviors, enabling the recognition and meaningful labelling of multiple unseen human activities.
- Abstract(参考訳): HAR(Human Activity Recognition)は、医療、リハビリテーション、フィットネストラッキング、スマート環境の応用を支えるものだが、既存のディープラーニングアプローチでは、データセット固有のトレーニング、大きなラベル付きコーパス、重要な計算資源を必要としている。
RAG-HARは軽量な統計記述子を計算し、ベクトルデータベースから意味論的に類似したサンプルを検索し、この文脈的エビデンスを用いてLCMに基づく行動識別を行う。
我々は、まず、プロンプト最適化を適用し、文脈に富んだベクトルデータベースを生成するLCMベースのアクティビティ記述子を導入し、正確で高関連性の高いコンテキスト情報を提供することにより、RAG-HARをさらに強化する。
これらのメカニズムとともに、RAG-HARは6つの多様なHARベンチマークで最先端のパフォーマンスを達成する。
最も重要な点として、RAG-HARはモデルトレーニングや微調整を必要とせずにこれらの改善を達成し、堅牢性と実用性を強調している。
RAG-HARは既知の行動を超えて、複数の目に見えない人間の活動の認識と意味のあるラベル付けを可能にする。
関連論文リスト
- Efficient Online Continual Learning in Sensor-Based Human Activity Recognition [8.720698253117837]
PTRN-HARは、限られた量のデータで対照的な損失を用いて特徴抽出器を事前訓練する。
本稿では,PTRN-HARについて紹介する。
論文 参考訳(メタデータ) (2025-11-04T08:48:36Z) - MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - Towards Generalizable Human Activity Recognition: A Survey [4.08377734173712]
IMUに基づくHuman Activity Recognition (HAR)は近年,学界と産業の双方から注目を集めている。
HARのパフォーマンスは特定のシナリオで大幅に改善されているが、その一般化機能は、現実世界で広く採用される上で重要な障壁であり続けている。
本稿では、IMUベースの一般化可能なHARの急速に発展する分野を探求し、229の論文と25の公開データセットをレビューする。
論文 参考訳(メタデータ) (2025-08-17T03:04:39Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents [28.419007116364668]
MLLMエージェントは、マルチモーダルなタスク関連軌道データを取得することで、複雑なエンボディされたタスクの可能性を実証する。
現在の検索手法は、主に軌跡におけるテキストや視覚的手がかりの表面レベルでの類似性に注目し、その特定のタスクに対する有効性を無視している。
本稿では,MART(MLLM As ReTriever)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T14:10:39Z) - Aligning Data Selection with Performance: Performance-driven Reinforcement Learning for Active Learning in Object Detection [31.304039641225504]
本稿では,オブジェクト検出のための平均APガイド型アクティブラーニングについて紹介する。
MGRALは、予測されたモデル出力変化の概念を深層検知ネットワークの情報性として活用する新しいアプローチである。
提案手法は,物体検出のための強化学習に基づく能動学習における新たなパラダイムを確立し,高い性能を示す。
論文 参考訳(メタデータ) (2023-10-12T14:59:22Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Sensor Data for Human Activity Recognition: Feature Representation and
Benchmarking [27.061240686613182]
HAR(Human Activity Recognition)の分野は、監視装置(センサなど)から取得したデータを取得し、分析することに焦点を当てている。
我々は、異なる機械学習(ML)技術を用いて、人間のアクティビティを正確に認識する問題に対処する。
論文 参考訳(メタデータ) (2020-05-15T00:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。