論文の概要: Few Shot Activity Recognition Using Variational Inference
- arxiv url: http://arxiv.org/abs/2108.08990v1
- Date: Fri, 20 Aug 2021 03:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 22:36:04.384872
- Title: Few Shot Activity Recognition Using Variational Inference
- Title(参考訳): 変分推論を用いたショット動作認識
- Authors: Neeraj Kumar, Siddhansh Narang
- Abstract要約: 本稿では,少数のショットアクティビティ認識のための新しい変分推論ベースアーキテクチャフレームワーク(HF-AR)を提案する。
筆者らの枠組みは, 容積保存型家庭用フローを活用して, 新規クラスの柔軟な後部分布を学習する。
これにより、人間の行動認識のための最先端のショットアプローチと比較して、パフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 9.371378627575883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been a remarkable progress in learning a model which could
recognise novel classes with only a few labeled examples in the last few years.
Few-shot learning (FSL) for action recognition is a challenging task of
recognising novel action categories which are represented by few instances in
the training data. We propose a novel variational inference based architectural
framework (HF-AR) for few shot activity recognition. Our framework leverages
volume-preserving Householder Flow to learn a flexible posterior distribution
of the novel classes. This results in better performance as compared to
state-of-the-art few shot approaches for human activity recognition. approach
consists of base model and an adapter model. Our architecture consists of a
base model and an adapter model. The base model is trained on seen classes and
it computes an embedding that represent the spatial and temporal insights
extracted from the input video, e.g. combination of Resnet-152 and LSTM based
encoder-decoder model. The adapter model applies a series of Householder
transformations to compute a flexible posterior distribution that lends higher
accuracy in the few shot approach. Extensive experiments on three well-known
datasets: UCF101, HMDB51 and Something-Something-V2, demonstrate similar or
better performance on 1-shot and 5-shot classification as compared to
state-of-the-art few shot approaches that use only RGB frame sequence as input.
To the best of our knowledge, we are the first to explore variational inference
along with householder transformations to capture the full rank covariance
matrix of posterior distribution, for few shot learning in activity
recognition.
- Abstract(参考訳): ここ数年、いくつかのラベル付き例しか持たない新しいクラスを認識できるモデルを学ぶことは驚くべき進歩を遂げている。
アクション認識のためのFSL(Few-shot Learning)は、トレーニングデータの少数のインスタンスで表される新しいアクションカテゴリを認識する上で難しい課題である。
本稿では,ショット動作認識の少ない新しい変分推論型アーキテクチャフレームワーク(hf-ar)を提案する。
本フレームワークは,体積保存型世帯フローを活用し,新しいクラスの柔軟な後方分布を学習する。
これにより、人間の活動認識に対する最先端のアプローチに比べて優れたパフォーマンスが得られる。
アプローチはベースモデルとアダプタモデルで構成される。
私たちのアーキテクチャはベースモデルとアダプタモデルで構成されています。
ベースモデルは見たクラスでトレーニングされ、入力されたビデオから抽出された空間的および時間的洞察を表す埋め込みを計算します。
Resnet-152とLSTMベースのエンコーダデコーダモデルの組み合わせ。
アダプタモデルは、少数のショットアプローチで高い精度を与える柔軟な後方分布を計算するために、一連の家計変換を適用する。
UCF101、HMDB51、Something-V2の3つのよく知られたデータセットに対する大規模な実験は、1ショットと5ショットの分類において、RGBフレームシーケンスのみを入力として使用する最先端のいくつかのショットアプローチと比較して、類似またはより良いパフォーマンスを示す。
我々の知識を最大限に活用するために、我々はまず、後方分布のフルランク共分散行列を捉えるために、世帯変換とともに変分推論を初めて探求し、活動認識におけるわずかなショットラーニングを行う。
関連論文リスト
- Intra-task Mutual Attention based Vision Transformer for Few-Shot Learning [12.5354658533836]
人間は、ほんのわずかの例に晒された後に、新しい、目に見えない画像を正確に分類する能力を持っている。
人工ニューラルネットワークモデルでは、限られたサンプルを持つ2つのイメージを区別する最も関連性の高い特徴を決定することが課題である。
本稿では,サポートとクエリサンプルをパッチに分割するタスク内相互注意手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T02:02:57Z) - Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Texture-Based Input Feature Selection for Action Recognition [3.9596068699962323]
本稿では,ドメインの差分を増大させる入力におけるタスク関連コンテンツを決定する新しい手法を提案する。
提案モデルは,HMDB-51データセットとPenn Actionデータセットにおいて,既存の行動認識モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-28T23:56:31Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models [4.189643331553922]
半教師付き小ショット分類のための潜在空間レベルで識別学習と生成学習を統合するディープ・インバーチブルハイブリッドモデルを提案する。
我々の主な独創性は、これらのコンポーネントを潜在空間レベルで統合することであり、過度な適合を防ぐのに有効である。
論文 参考訳(メタデータ) (2021-05-22T05:55:16Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。