論文の概要: Human Action Recognition in Still Images Using ConViT
- arxiv url: http://arxiv.org/abs/2307.08994v1
- Date: Tue, 18 Jul 2023 06:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:22:31.000446
- Title: Human Action Recognition in Still Images Using ConViT
- Title(参考訳): ConViTを用いた静止画像における人間の行動認識
- Authors: Seyed Rohollah Hosseyni, Hasan Taheri, Sanaz Seyedin, Ali Ahmad
Rahmani
- Abstract要約: 本稿では視覚変換器(ViT)を用いた畳み込み層として機能する新しいモジュールを提案する。
提案モデルはStanford40およびPASCAL VOC 2012アクションデータセットで評価されている。
- 参考スコア(独自算出の注目度): 0.28675177318965034
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the relationship between different parts of the image plays a
crucial role in many visual recognition tasks. Despite the fact that
Convolutional Neural Networks (CNNs) have demonstrated impressive results in
detecting single objects, they lack the capability to extract the relationship
between various regions of an image, which is a crucial factor in human action
recognition. To address this problem, this paper proposes a new module that
functions like a convolutional layer using Vision Transformer (ViT). The
proposed action recognition model comprises two components: the first part is a
deep convolutional network that extracts high-level spatial features from the
image, and the second component of the model utilizes a Vision Transformer that
extracts the relationship between various regions of the image using the
feature map generated by the CNN output. The proposed model has been evaluated
on the Stanford40 and PASCAL VOC 2012 action datasets and has achieved 95.5%
mAP and 91.5% mAP results, respectively, which are promising compared to other
state-of-the-art methods.
- Abstract(参考訳): 画像の異なる部分間の関係を理解することは、多くの視覚認識タスクにおいて重要な役割を果たす。
畳み込みニューラルネットワーク(CNN)は、単一物体の検出において驚くべき結果を示したが、人間の行動認識において重要な要素である画像の様々な領域間の関係を抽出する能力は欠如している。
そこで本稿では,視覚トランスフォーマ (vit) を用いた畳み込み層として機能する新しいモジュールを提案する。
提案する動作認識モデルは,画像から高レベルな空間的特徴を抽出する深層畳み込みネットワークと,cnn出力によって生成された特徴マップを用いて画像の様々な領域間の関係を抽出する視覚トランスフォーマを使用している。
提案したモデルはStanford40とPASCAL VOC 2012のアクションデータセットで評価され、それぞれ95.5% mAPと91.5% mAPを達成している。
関連論文リスト
- Are Deep Learning Models Robust to Partial Object Occlusion in Visual Recognition Tasks? [4.9260675787714]
畳み込みニューラルネットワーク(CNN)を含む画像分類モデルは、様々な分類タスクでうまく機能するが、部分閉塞下では困難である。
我々は最近開発されたOccluded Video Instance(IRUO)データセット(arXiv:2102.01558)を基にした画像認識(IRUO)データセットをコントリビュートする。
現代のCNNベースモデルでは、従来のCNNベースモデルと比較して、隠蔽画像の認識精度が向上しており、ViTベースモデルは隠蔽画像のCNNベースモデルよりも精度が高いことが判明した。
論文 参考訳(メタデータ) (2024-09-16T23:21:22Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Saccade Mechanisms for Image Classification, Object Detection and
Tracking [12.751552698602744]
生体視覚からのササード機構を用いて、ディープニューラルネットワークを分類や物体検出の問題をより効率的にする方法について検討する。
提案手法は、注意駆動型視覚処理とササードのアイデアに基づいており、注意に影響された眼球運動のミニチュア化を図っている。
論文 参考訳(メタデータ) (2022-06-10T13:50:34Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Projected Distribution Loss for Image Enhancement [15.297569497776374]
CNNアクティベーション間の1D-ワッサースタイン距離の集約は,既存の手法よりも信頼性が高いことを示す。
デノイジング、スーパーレゾリューション、復号化、デブレーション、JPEGアーティファクト除去などのイメージングアプリケーションでは、提案された学習損失は、参照ベースの知覚的損失に関する現在の最先端のものを上回る。
論文 参考訳(メタデータ) (2020-12-16T22:13:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。