論文の概要: TransNet: A Transfer Learning-Based Network for Human Action Recognition
- arxiv url: http://arxiv.org/abs/2309.06951v1
- Date: Wed, 13 Sep 2023 13:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 14:11:28.042823
- Title: TransNet: A Transfer Learning-Based Network for Human Action Recognition
- Title(参考訳): TransNet:人間行動認識のためのトランスファーラーニングベースネットワーク
- Authors: K. Alomar, X. Cai
- Abstract要約: HAR(Human Action Recognition)は、コンピュータビジョンにおける高レベルかつ重要な研究分野である。
本稿では,HAR 用の TransNet という,シンプルで汎用的で効果的なエンドツーエンドディープラーニングアーキテクチャを提案する。
TransNetは複雑な3D-CNNを2D-と1D-CNNに分解し、2D-と1D-CNNコンポーネントがビデオの空間的特徴と時間的パターンを抽出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human action recognition (HAR) is a high-level and significant research area
in computer vision due to its ubiquitous applications. The main limitations of
the current HAR models are their complex structures and lengthy training time.
In this paper, we propose a simple yet versatile and effective end-to-end deep
learning architecture, coined as TransNet, for HAR. TransNet decomposes the
complex 3D-CNNs into 2D- and 1D-CNNs, where the 2D- and 1D-CNN components
extract spatial features and temporal patterns in videos, respectively.
Benefiting from its concise architecture, TransNet is ideally compatible with
any pretrained state-of-the-art 2D-CNN models in other fields, being
transferred to serve the HAR task. In other words, it naturally leverages the
power and success of transfer learning for HAR, bringing huge advantages in
terms of efficiency and effectiveness. Extensive experimental results and the
comparison with the state-of-the-art models demonstrate the superior
performance of the proposed TransNet in HAR in terms of flexibility, model
complexity, training speed and classification accuracy.
- Abstract(参考訳): HAR(Human Action Recognition)は、コンピュータビジョンにおいて、ユビキタスな応用のために、ハイレベルかつ重要な研究領域である。
現在のHARモデルの主な制限は、その複雑な構造と長いトレーニング時間である。
本稿では,harのための簡易かつ汎用的で効率的なエンドツーエンドのディープラーニングアーキテクチャであるtransnetを提案する。
TransNetは複雑な3D-CNNを2D-と1D-CNNに分解し、2D-と1D-CNNコンポーネントはそれぞれビデオの空間的特徴と時間的パターンを抽出する。
簡潔なアーキテクチャから恩恵を受け、TransNetは他の分野の訓練済みの2D-CNNモデルと理想的に互換性があり、HARタスクのために転送される。
言い換えれば、HARの転送学習の能力と成功を自然に活用し、効率性と効率性において大きな利点をもたらす。
大規模実験結果と最先端モデルとの比較により,HARにおけるTransNetの柔軟性,モデルの複雑性,トレーニング速度,分類精度の点で優れた性能を示した。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - RLEEGNet: Integrating Brain-Computer Interfaces with Adaptive AI for
Intuitive Responsiveness and High-Accuracy Motor Imagery Classification [0.0]
本稿では,Deep Q-Networks (DQN) を用いた強化学習を分類タスクに活用するフレームワークを提案する。
本稿では,OVR(One-Versus-The-Rest)方式で,マルチクラス運動画像(MI)分類のための前処理手法を提案する。
DQNと1D-CNN-LSTMアーキテクチャの統合は意思決定プロセスをリアルタイムで最適化する。
論文 参考訳(メタデータ) (2024-02-09T02:03:13Z) - From Alexnet to Transformers: Measuring the Non-linearity of Deep Neural Networks with Affine Optimal Transport [32.39176908225668]
本稿では,DNNの非線形性シグネチャの概念を紹介する。これはディープニューラルネットワークの非線形性を測定するための,理論上初めての音響解である。
提案した非線形署名の実用性を明らかにするための実験結果について述べる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - 3D Convolutional with Attention for Action Recognition [6.238518976312625]
現在の行動認識法は、計算コストの高いモデルを用いて行動の時間的依存を学習する。
本稿では,3次元畳み込み層,完全連結層,注目層からなる依存関係を学習するためのディープニューラルネットワークアーキテクチャを提案する。
提案手法はまず3D-CNNを用いて行動の空間的特徴と時間的特徴を学習し,その後,注意時間機構によってモデルが本質的な特徴に注意を向けることを支援する。
論文 参考訳(メタデータ) (2022-06-05T15:12:57Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - STSM: Spatio-Temporal Shift Module for Efficient Action Recognition [4.096670184726871]
本稿では,有効かつ高性能な時空間シフトモジュール(STSM)を提案する。
特に、ネットワークが2次元CNNである場合、STSMモジュールはネットワークが効率的な時空間的特徴を学習できるようにする。
論文 参考訳(メタデータ) (2021-12-05T09:40:49Z) - CT-Net: Channel Tensorization Network for Video Classification [48.4482794950675]
3D畳み込みはビデオ分類には強力だが、しばしば計算コストがかかる。
ほとんどのアプローチは、畳み込み効率と機能的相互作用の十分性の間の好適なバランスを達成できない。
簡潔で斬新なチャネルネットワーク(CT-Net)を提案する。
我々のCT-Netは、精度および/または効率の点で、最近のSOTAアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-06-03T05:35:43Z) - DCN V2: Improved Deep & Cross Network and Practical Lessons for
Web-scale Learning to Rank Systems [15.398542784403604]
Deep & Cross Network (DCN) は、境界度予測機能相互作用を自動かつ効率的に学習するために提案されている。
大規模産業環境でDCNをより実用的なものにするために,DCN-V2の改良フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-19T20:33:02Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。