論文の概要: From Actions to Events: A Transfer Learning Approach Using Improved Deep
Belief Networks
- arxiv url: http://arxiv.org/abs/2211.17045v1
- Date: Wed, 30 Nov 2022 14:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:45:49.754794
- Title: From Actions to Events: A Transfer Learning Approach Using Improved Deep
Belief Networks
- Title(参考訳): 行動からイベントへ:改良された深い信念ネットワークを用いた伝達学習アプローチ
- Authors: Mateus Roder, Jurandy Almeida, Gustavo H. de Rosa, Leandro A. Passos,
Andr\'e L. D. Rossi, Jo\~ao P. Papa
- Abstract要約: 本稿では,エネルギーモデルを用いた行動認識からイベント認識への知識マッピング手法を提案する。
このようなモデルはすべてのフレームを同時に処理し、学習プロセスを通じて空間的および時間的情報を運ぶことができる。
- 参考スコア(独自算出の注目度): 1.0554048699217669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decade, exponential data growth supplied machine learning-based
algorithms' capacity and enabled their usage in daily-life activities.
Additionally, such an improvement is partially explained due to the advent of
deep learning techniques, i.e., stacks of simple architectures that end up in
more complex models. Although both factors produce outstanding results, they
also pose drawbacks regarding the learning process as training complex models
over large datasets are expensive and time-consuming. Such a problem is even
more evident when dealing with video analysis. Some works have considered
transfer learning or domain adaptation, i.e., approaches that map the knowledge
from one domain to another, to ease the training burden, yet most of them
operate over individual or small blocks of frames. This paper proposes a novel
approach to map the knowledge from action recognition to event recognition
using an energy-based model, denoted as Spectral Deep Belief Network. Such a
model can process all frames simultaneously, carrying spatial and temporal
information through the learning process. The experimental results conducted
over two public video dataset, the HMDB-51 and the UCF-101, depict the
effectiveness of the proposed model and its reduced computational burden when
compared to traditional energy-based models, such as Restricted Boltzmann
Machines and Deep Belief Networks.
- Abstract(参考訳): 過去10年間、指数関数的データ成長は機械学習ベースのアルゴリズムの能力を提供し、日々のアクティビティでの使用を可能にした。
さらに、このような改善は、より複雑なモデルで終わる単純なアーキテクチャのスタックのようなディープラーニング技術の出現によって部分的に説明される。
どちらの要因も優れた結果を生み出すが、大規模データセット上の複雑なモデルのトレーニングは高価で時間がかかるため、学習プロセスに関する欠点もある。
このような問題は、ビデオ分析を扱う場合にさらに顕著である。
移行学習やドメイン適応、すなわちあるドメインから別のドメインへ知識をマッピングし、トレーニングの負担を軽減するアプローチを考える研究もあるが、そのほとんどは個々のあるいは小さなフレームで運用されている。
本稿では,行動認識から事象認識への知識を,スペクトル深層信念ネットワークと呼ばれるエネルギーベースモデルを用いてマッピングする新しい手法を提案する。
このようなモデルはすべてのフレームを同時に処理し、学習プロセスを通じて空間的および時間的情報を運ぶことができる。
2つの公開ビデオデータセットであるHMDB-51とUCF-101で実施された実験結果は、制限ボルツマンマシンやディープリーフネットワークのような従来のエネルギーベースモデルと比較して、提案モデルの有効性と計算負荷の低減を描いている。
関連論文リスト
- Accelerating Deep Learning with Fixed Time Budget [2.190627491782159]
本稿では,一定時間内に任意のディープラーニングモデルを学習するための効果的な手法を提案する。
提案手法はコンピュータビジョンにおける分類タスクと回帰タスクの両方において広範囲に評価される。
論文 参考訳(メタデータ) (2024-10-03T21:18:04Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - The Trifecta: Three simple techniques for training deeper
Forward-Forward networks [0.0]
本稿では,より深いネットワーク上でのフォワード・フォワードアルゴリズムを大幅に改善する3つの手法のコレクションを提案する。
我々の実験は、我々のモデルが、単純なデータセットのトレーニング速度とテスト精度の両方において、同様に構造化されたバックプロパゲーションベースのモデルと同等であることを示した。
論文 参考訳(メタデータ) (2023-11-29T22:44:32Z) - Breaking the Curse of Dimensionality in Deep Neural Networks by Learning
Invariant Representations [1.9580473532948401]
この論文は、これらのモデルのアーキテクチャとそれらが処理するデータ内の固有の構造との関係を研究することによって、ディープラーニングの理論的基礎を探求する。
ディープラーニングアルゴリズムの有効性を駆動するものは何か,いわゆる次元の呪いに勝てるのか,と問う。
本手法は,実験的な研究と物理に触発された玩具モデルを組み合わせることによって,深層学習に実証的なアプローチをとる。
論文 参考訳(メタデータ) (2023-10-24T19:50:41Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Collaborative Distillation in the Parameter and Spectrum Domains for
Video Action Recognition [79.60708268515293]
本稿では,行動認識のための小型かつ効率的なネットワークの訓練方法について検討する。
周波数領域における2つの蒸留戦略,すなわち特徴スペクトルとパラメータ分布蒸留を提案する。
提案手法は,同じバックボーンを持つ最先端の手法よりも高い性能を実現することができる。
論文 参考訳(メタデータ) (2020-09-15T07:29:57Z) - Knowledge Distillation: A Survey [87.51063304509067]
ディープニューラルネットワークは、特にコンピュータビジョンタスクにおいて、産業と学術の両方で成功している。
リソースが限られているデバイスに、これらの面倒なディープモデルをデプロイすることは難しい。
知識蒸留は、大きな教師モデルから小さな学生モデルを効果的に学習する。
論文 参考訳(メタデータ) (2020-06-09T21:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。