論文の概要: Detecting Informative Channels: ActionFormer
- arxiv url: http://arxiv.org/abs/2505.20739v1
- Date: Tue, 27 May 2025 05:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.425657
- Title: Detecting Informative Channels: ActionFormer
- Title(参考訳): インフォーマティブチャネルの検出: ActionFormer
- Authors: Kunpeng Zhao, Asahi Miyazaki, Tsuyoshi Okita,
- Abstract要約: ActionFormerは、アクティビティのバウンダリとアクティビティラベルを検出する追加のアウトプットを提供します。
我々はこれをディープラーニングアーキテクチャの観点から広範囲に分析する。
本手法は慣性データの平均mAPにおいて16.01%の大幅な改善を実現する。
- 参考スコア(独自算出の注目度): 3.1976901430982063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) has recently witnessed advancements with Transformer-based models. Especially, ActionFormer shows us a new perspectives for HAR in the sense that this approach gives us additional outputs which detect the border of the activities as well as the activity labels. ActionFormer was originally proposed with its input as image/video. However, this was converted to with its input as sensor signals as well. We analyze this extensively in terms of deep learning architectures. Based on the report of high temporal dynamics which limits the model's ability to capture subtle changes effectively and of the interdependencies between the spatial and temporal features. We propose the modified ActionFormer which will decrease these defects for sensor signals. The key to our approach lies in accordance with the Sequence-and-Excitation strategy to minimize the increase in additional parameters and opt for the swish activation function to retain the information about direction in the negative range. Experiments on the WEAR dataset show that our method achieves substantial improvement of a 16.01\% in terms of average mAP for inertial data.
- Abstract(参考訳): HAR(Human Activity Recognition)は最近、Transformerベースのモデルによる進歩を目撃している。
特に、ActionFormerは、アクティビティのバウンダリとアクティビティラベルを検知する新たなアウトプットを提供するという意味で、HARに対する新たな視点を示しています。
ActionFormerは当初、イメージ/ビデオとしてインプットされた。
しかし、これもセンサー信号として入力され、変換された。
我々はこれをディープラーニングアーキテクチャの観点から広範囲に分析する。
モデルが微妙な変化を効果的に捉え、空間的特徴と時間的特徴の相互依存性を効果的に捉える能力を制限する高時間ダイナミクスのレポートに基づいている。
本稿では,センサ信号の欠陥を低減させる改良型ActionFormerを提案する。
提案手法の鍵は,追加パラメータの増加を最小限に抑えるためにシーケンス・アンド・エキサイティング・ストラテジーに則って,負の領域における方向に関する情報を保持するために,スイッシュアクティベーション関数を選択することである。
WEARデータセットを用いた実験により,慣性データの平均mAPは16.01\%の大幅な改善が得られた。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Towards High-Quality Temporal Action Detection with Sparse Proposals [14.923321325749196]
時間的アクション検出は、人間のアクションインスタンスを含む時間的セグメントをローカライズし、アクションカテゴリを予測することを目的としている。
階層的特徴と相互作用するためにスパース提案を導入する。
実験により,高いtIoU閾値下での本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-09-18T06:15:19Z) - Learning to Discriminate Information for Online Action Detection:
Analysis and Application [32.4410197207228]
本稿では,現在進行中の行動と他者の情報関連性を明確に識別する情報識別ユニット(IDU)を提案する。
また,行動予測のための情報統合ユニット(IIU)を新たに提案する。
我々のIIUは、疑似アクションラベルやRGBフレームとしてIDUからの出力を利用して、観察されたアクションの豊富な特徴を効果的に学習する。
論文 参考訳(メタデータ) (2021-09-08T01:51:51Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。