論文の概要: Few-Shot Optimization for Sensor Data Using Large Language Models: A Case Study on Fatigue Detection
- arxiv url: http://arxiv.org/abs/2505.18754v1
- Date: Sat, 24 May 2025 15:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.637026
- Title: Few-Shot Optimization for Sensor Data Using Large Language Models: A Case Study on Fatigue Detection
- Title(参考訳): 大規模言語モデルを用いたセンサデータのFew-Shot最適化:疲労検出を事例として
- Authors: Elsen Ronando, Sozo Inoue,
- Abstract要約: 本稿では,HED-LM(Hybrid Euclidean Distance with Large Language Models)を用いて,センサを用いた分類タスクのサンプル選択を改善するために,新しい数ショット最適化を提案する。
HED-LMは、ユークリッド距離に基づいて候補サンプルをフィルタリングし、それらを再ランクするハイブリッドセレクションパイプラインを通じて、この問題に対処する。
実験の結果,HED-LMの平均マクロF1スコアは69.13$pm$10.71%であり,ランダム選択と距離のみフィルタリングの両方に優れていた。
- 参考スコア(独自算出の注目度): 3.536622936239033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel few-shot optimization with HED-LM (Hybrid Euclidean Distance with Large Language Models) to improve example selection for sensor-based classification tasks. While few-shot prompting enables efficient inference with limited labeled data, its performance largely depends on the quality of selected examples. HED-LM addresses this challenge through a hybrid selection pipeline that filters candidate examples based on Euclidean distance and re-ranks them using contextual relevance scored by large language models (LLMs). To validate its effectiveness, we apply HED-LM to a fatigue detection task using accelerometer data characterized by overlapping patterns and high inter-subject variability. Unlike simpler tasks such as activity recognition, fatigue detection demands more nuanced example selection due to subtle differences in physiological signals. Our experiments show that HED-LM achieves a mean macro F1-score of 69.13$\pm$10.71%, outperforming both random selection (59.30$\pm$10.13%) and distance-only filtering (67.61$\pm$11.39%). These represent relative improvements of 16.6% and 2.3%, respectively. The results confirm that combining numerical similarity with contextual relevance improves the robustness of few-shot prompting. Overall, HED-LM offers a practical solution to improve performance in real-world sensor-based learning tasks and shows potential for broader applications in healthcare monitoring, human activity recognition, and industrial safety scenarios.
- Abstract(参考訳): 本稿では,HED-LM(Hybrid Euclidean Distance with Large Language Models)を用いて,センサを用いた分類タスクのサンプル選択を改善するために,新しい数ショット最適化を提案する。
少ないショットプロンプトはラベル付きデータで効率的な推論を可能にするが、その性能は選択された例の品質に大きく依存する。
HED-LMは、ユークリッド距離に基づいて候補例をフィルタリングし、大きな言語モデル(LLM)によって得られた文脈的関連性を使ってそれらを再ランクするハイブリッドセレクションパイプラインを通じて、この問題に対処する。
重なり合うパターンと高い物体間変動を特徴とする加速度センサデータを用いて,HED-LMを疲労検出タスクに適用する。
アクティビティ認識のような単純なタスクとは異なり、疲労検出は生理的信号の微妙な違いのため、よりニュアンスなサンプル選択を必要とする。
実験の結果,HED-LMの平均マクロF1スコアは69.13$\pm$10.71%であり,ランダム選択 (59.30$\pm$10.13%) と距離限定フィルタリング (67.61$\pm$11.39%) の両方より優れていた。
これらはそれぞれ16.6%と2.3%の相対的な改善を示している。
その結果、数値的類似性と文脈的関連性を組み合わせることで、数発のプロンプトの堅牢性が向上することが確認された。
全体として、HED-LMは、実世界のセンサーベースの学習タスクのパフォーマンス向上のための実用的なソリューションを提供し、医療モニタリング、ヒューマンアクティビティ認識、産業安全シナリオにおける幅広い応用の可能性を示している。
関連論文リスト
- Improving Large Language Model Planning with Action Sequence Similarity [50.52049888490524]
本研究では,インコンテキスト学習(ICL)によるモデル計画能力の向上について検討する。
GRASE-DC は2段階のパイプラインで,まず高効率のAS例を再サンプリングし,選択した例をキュレートする。
実験の結果,GRASE-DCは様々な計画タスクにおいて大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-02T05:16:17Z) - Benchmarking Open-Source Large Language Models on Healthcare Text Classification Tasks [2.7729041396205014]
本研究では,オープンソースの5つの大言語モデル(LLM)の分類性能を評価する。
全てのモデルとタスクの組み合わせに対して、95%の信頼区間を有する精度、リコール、F1スコアを報告する。
論文 参考訳(メタデータ) (2025-03-19T12:51:52Z) - On the Worst Prompt Performance of Large Language Models [93.13542053835542]
大規模言語モデル(LLM)の性能は,プロンプトの表現に非常に敏感である。
セマンティックに等価なケースレベルのクエリで構成される新しいベンチマークであるRobustAlpacaEvalを紹介する。
RobustAlpacaEvalとChatGPT、およびLlama、Mistral、Gemmaファミリーの6つのオープンソースLLMによる実験により、モデル性能のかなりのばらつきが明らかになった。
論文 参考訳(メタデータ) (2024-06-08T13:40:38Z) - Adapting Large Multimodal Models to Distribution Shifts: The Role of In-Context Learning [41.59855801010565]
大規模マルチモーダルモデル(LMM)は汎用アシスタントとして機能し、異なる分布に対して非常に堅牢である。
それにもかかわらず、特に医療のような専門分野において、ドメイン固有の適応は依然として必要である。
本研究は,LMMの適応性向上のための効果的な代替手段として,文脈内学習(ICL)について検討する。
論文 参考訳(メタデータ) (2024-05-20T17:59:21Z) - Efficient Detection of LLM-generated Texts with a Bayesian Surrogate Model [14.98695074168234]
本稿では,特に大規模言語モデル(LLM)から機械生成テキストを検出する新しい手法を提案する。
ベイジアンサロゲートモデルを用いて、ベイジアン不確実性に基づいて典型的なサンプルを選択し、典型的なサンプルから他のサンプルへのスコアを補間し、クエリ効率を向上させる。
実験の結果,提案手法はクエリコストの低い既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-05-26T04:23:10Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。