論文の概要: Active Inference for Micro-Gesture Recognition: EFE-Guided Temporal Sampling and Adaptive Learning
- arxiv url: http://arxiv.org/abs/2603.07559v1
- Date: Sun, 08 Mar 2026 09:44:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.80755
- Title: Active Inference for Micro-Gesture Recognition: EFE-Guided Temporal Sampling and Adaptive Learning
- Title(参考訳): マイクロジェスチャ認識のためのアクティブ推論:EFE誘導テンポラルサンプリングと適応学習
- Authors: Weijia Feng, Jingyu Yang, Ruojia Zhang, Fengtao Sun, Qian Gao, Chenyang Wang, Tongtong Su, Jia Guo, Xiaobai Li, Minglai Shao,
- Abstract要約: 本稿では,マイクロジェスチャ認識のための能動的推論に基づくフレームワークを提案する。
予測自由エネルギー(EFE)マイクロガイドによる時間的サンプリングと不確実性を考慮した適応学習が特徴である。
低リソースでノイズの多い条件下での時間的振る舞いモデリングのための解釈可能でスケーラブルなパラダイムを提供する。
- 参考スコア(独自算出の注目度): 28.290563914077932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-gestures are subtle and transient movements triggered by unconscious neural and emotional activities, holding great potential for human-computer interaction and clinical monitoring. However, their low amplitude, short duration, and strong inter-subject variability make existing deep models prone to degradation under low-sample, noisy, and cross-subject conditions. This paper presents an active inference-based framework for micro-gesture recognition, featuring Expected Free Energy (EFE)-guided temporal sampling and uncertainty-aware adaptive learning. The model actively selects the most discriminative temporal segments under EFE guidance, enabling dynamic observation and information gain maximization. Meanwhile, sample weighting driven by predictive uncertainty mitigates the effects of label noise and distribution shift. Experiments on the SMG dataset demonstrate the effectiveness of the proposed method, achieving consistent improvements across multiple mainstream backbones. Ablation studies confirm that both the EFE-guided observation and the adaptive learning mechanism are crucial to the performance gains. This work offers an interpretable and scalable paradigm for temporal behavior modeling under low-resource and noisy conditions, with broad applicability to wearable sensing, HCI, and clinical emotion monitoring.
- Abstract(参考訳): マイクロジェスチャーは、無意識の神経活動と感情活動によって引き起こされる微妙で過渡的な動きであり、人間とコンピュータの相互作用と臨床モニタリングに大きな可能性を秘めている。
しかし、その低振幅、短寿命、強い物体間変動により、既存の深部モデルでは、低サンプル、雑音、およびクロスオブジェクト条件下で劣化しがちである。
本稿では,予測自由エネルギー(EFE)による時間的サンプリングと不確実性を考慮した適応学習を特徴とする,マイクロジェスチャ認識のための能動的推論に基づくフレームワークを提案する。
このモデルは、EFEガイダンスの下で最も識別性の高い時間セグメントを積極的に選択し、動的観察と情報ゲインの最大化を可能にする。
一方、予測不確実性によるサンプル重み付けは、ラベルノイズと分布シフトの影響を緩和する。
SMGデータセットの実験では、提案手法の有効性を示し、複数のメインストリームバックボーンで一貫した改善を実現している。
アブレーション研究により、EFE誘導観察と適応学習機構の両方が性能向上に不可欠であることが確認された。
この研究は、低リソースおよびノイズ条件下での時間的行動モデリングのための解釈可能でスケーラブルなパラダイムを提供し、ウェアラブルセンシング、HCI、臨床感情モニタリングに広く適用可能である。
関連論文リスト
- Identifying and Transferring Reasoning-Critical Neurons: Improving LLM Inference Reliability via Activation Steering [50.63386303357225]
本稿では,ニューロンの活性化に選択的に介入することで推論信頼性を向上させる軽量なテストタイムフレームワークであるAdaRASを提案する。
AdaRASは、極性を意識した平均差基準を介してReasoning-Critical Neurons(RCN)を特定し、推論中にアクティベーションを適応的に制御する。
10の数学およびコーディングベンチマークの実験では、AIME-24とAIME-25の13%以上のゲインを含む一貫した改善が示されている。
論文 参考訳(メタデータ) (2026-01-27T17:53:01Z) - FAIM: Frequency-Aware Interactive Mamba for Time Series Classification [87.84511960413715]
時系列分類(TSC)は、環境モニタリング、診断、姿勢認識など、多くの実世界の応用において重要である。
本稿では,周波数対応対話型マンバモデルであるFAIMを提案する。
FAIMは既存の最先端(SOTA)手法を一貫して上回り、精度と効率のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:36:33Z) - OmniTFT: Omni Target Forecasting for Vital Signs and Laboratory Result Trajectories in Multi Center ICU Data [12.22073008865211]
OmniTFTは、高頻度のバイタルサインを共同で学習し、予測する深層学習フレームワークである。
スライディングウィンドウ等化サンプリング、周波数認識型埋め込み収縮、階層変数選択、影響対応型アテンションキャリブレーションの4つの新しい手法を実装している。
MIMIC-III、MIMIC-IV、およびeICUデータセットにおいて、バイタルサインと実験結果の両方で大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2025-11-23T05:17:22Z) - Deep Learning for Motion Classification in Ankle Exoskeletons Using Surface EMG and IMU Signals [0.8388591755871735]
足関節外骨格は、移動性を高め、転倒リスクを減らす可能性に対してかなりの関心を集めている。
本稿では、3つの慣性計測ユニット(IMU)と8つの表面筋電図センサ(sEMG)を統合する新しい動き予測フレームワークを提案する。
その結果、畳み込みニューラルネットワーク(CNN)は5つの動作タスクのデータセット上でLSTM(Long Short-Term Memory)ネットワークをわずかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-25T10:51:40Z) - FoME: A Foundation Model for EEG using Adaptive Temporal-Lateral Attention Scaling [19.85701025524892]
FoME (Foundation Model for EEG) は適応的側方アテンションスケーリングを用いた新しいアプローチである。
FoMEは1.7TBの頭皮と頭蓋内脳波記録のデータセットで事前訓練されており、1,096kのステップで745Mのパラメータが訓練されている。
論文 参考訳(メタデータ) (2024-09-19T04:22:40Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - Undersampling and Cumulative Class Re-decision Methods to Improve
Detection of Agitation in People with Dementia [16.949993123698345]
消化は認知症(PwD)で最も多い症状の1つである。
前回の研究では、参加者17名から600日間のマルチモーダルウェアラブルセンサデータを収集し、1分間の窓での動揺を検出する機械学習モデルを開発した。
本稿では,まず,不均衡を解消するために異なるアンダーサンプリング手法を実装し,通常の動作データの20%だけが競合的動揺検出モデルの訓練に適しているという結論に至った。
論文 参考訳(メタデータ) (2023-02-07T03:14:00Z) - A Neural Active Inference Model of Perceptual-Motor Learning [62.39667564455059]
アクティブ推論フレームワーク(英: active inference framework、AIF)は、現代の神経科学を基盤とした、有望な新しい計算フレームワークである。
本研究では,ヒトの視覚行動指導において,AIFが期待する役割を捉える能力をテストする。
本稿では,多次元世界状態から自由エネルギーの一次元分布にマッピングする先行関数の新たな定式化について述べる。
論文 参考訳(メタデータ) (2022-11-16T20:00:38Z) - Estimating the Effects of Continuous-valued Interventions using
Generative Adversarial Networks [103.14809802212535]
我々は,連続的評価介入の効果を推定する問題に対処するため,GAN(Generative Adversarial Network)フレームワークを構築した。
我々のモデルであるSCIGANは柔軟であり、いくつかの異なる継続的な介入に対する対実的な結果の同時推定が可能である。
継続的な介入に移行することによって生じる課題に対処するために、差別者のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T18:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。