論文の概要: Egocentric zone-aware action recognition across environments
- arxiv url: http://arxiv.org/abs/2409.14205v1
- Date: Sat, 21 Sep 2024 17:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 23:37:15.978864
- Title: Egocentric zone-aware action recognition across environments
- Title(参考訳): エゴセントリックゾーン認識環境における行動認識
- Authors: Simone Alberto Peirone, Gabriele Goletto, Mirco Planamente, Andrea Bottino, Barbara Caputo, Giuseppe Averta,
- Abstract要約: 活動中心のゾーンは、人間の活動を認識するビジョンモデルに優先する先駆けとして機能する。
これらのゾーンの出現はシーン固有のものであり、この前の情報の未知の領域や領域への転送可能性を制限する。
本稿では,Egocentric Action Recognition(EAR)モデルのドメイン間転送性を改善する方法について述べる。
- 参考スコア(独自算出の注目度): 17.67702928208351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activities exhibit a strong correlation between actions and the places where these are performed, such as washing something at a sink. More specifically, in daily living environments we may identify particular locations, hereinafter named activity-centric zones, which may afford a set of homogeneous actions. Their knowledge can serve as a prior to favor vision models to recognize human activities. However, the appearance of these zones is scene-specific, limiting the transferability of this prior information to unfamiliar areas and domains. This problem is particularly relevant in egocentric vision, where the environment takes up most of the image, making it even more difficult to separate the action from the context. In this paper, we discuss the importance of decoupling the domain-specific appearance of activity-centric zones from their universal, domain-agnostic representations, and show how the latter can improve the cross-domain transferability of Egocentric Action Recognition (EAR) models. We validate our solution on the EPIC-Kitchens-100 and Argo1M datasets
- Abstract(参考訳): 人間の活動は、シンクで何かを洗うなど、行動とそれらが行われる場所の間に強い相関関係を示す。
より具体的には、日常生活環境において特定の場所(以下、活動中心のゾーン)を特定できる。
彼らの知識は、人間の活動を認識するビジョンモデルに優先する先駆者として機能する。
しかし、これらのゾーンの出現はシーン固有のものであり、この前の情報の未知の領域や領域への転送可能性を制限する。
この問題は、環境がほとんどのイメージを取り込み、アクションをコンテキストから分離することがさらに困難になる、エゴセントリックなビジョンに特に関係している。
本稿では,活動中心領域の普遍的,ドメインに依存しない表現から,活動中心領域の領域固有の出現を分離することの重要性を論じ,後者がエゴセントリック行動認識(EAR)モデルのドメイン間移動性を改善する方法を示す。
EPIC-Kitchens-100およびArgo1Mデータセット上でのソリューションの検証
関連論文リスト
- Grounding 3D Scene Affordance From Egocentric Interactions [52.5827242925951]
接地型3Dシーンアベイランスは、3D環境におけるインタラクティブな領域を見つけることを目的としている。
我々は,エゴセントリックなインタラクションから3Dシーンの空き時間を確保するという,新しい課題を紹介した。
論文 参考訳(メタデータ) (2024-09-29T10:46:19Z) - Grounded Affordance from Exocentric View [79.64064711636975]
Affordance Groundingは、オブジェクトの"アクションの可能性"領域を見つけることを目的としている。
対話的な余裕の多様性のため、異なる個人の独特さは多様な相互作用をもたらす。
人間は様々な外心中心の相互作用を不変の自我中心の余裕に変える能力を持っている。
論文 参考訳(メタデータ) (2022-08-28T10:32:47Z) - Audio-Adaptive Activity Recognition Across Video Domains [112.46638682143065]
ドメイン間のばらつきが少なく、どのアクティビティが起こっていないかを確実に示すことができるので、ドメイン適応のためにアクティビティサウンドを活用します。
視覚特徴表現を識別的に調整するオーディオ適応型エンコーダと学習方法を提案する。
また、アクターシフトという新たなタスクを対応するオーディオ・ビジュアル・データセットで導入し、アクターの出現が劇的に変化する状況において、我々の手法に挑戦する。
論文 参考訳(メタデータ) (2022-03-27T08:15:20Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - Cross-Subject Domain Adaptation for Classifying Working Memory Load with Multi-Frame EEG Images [23.88791823748776]
本研究では,空間的注意(CS-DASA)を考慮したクロスオブジェクト深層適応モデルを提案する。
まず,脳波時系列を空間情報,スペクトル情報,時間情報を含む多フレーム脳波画像に変換する。
最後に、対象画像データからの識別的空間的特徴に焦点を合わせるために、主観的空間的注意機構を用いる。
論文 参考訳(メタデータ) (2021-06-12T13:04:46Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - Adversarial Graph Representation Adaptation for Cross-Domain Facial
Expression Recognition [86.25926461936412]
本稿では,グラフ表現の伝播と逆学習を両立させる新しいAdrialversa Graph Representation Adaptation (AGRA) フレームワークを提案する。
提案するAGRAフレームワークは,従来の最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-08-03T13:27:24Z) - EGO-TOPO: Environment Affordances from Egocentric Video [104.77363598496133]
本稿では,エゴセントリックビデオから直接学習した環境割当モデルを提案する。
提案手法は,空間を一対一の活動から導かれた位相写像に分解する。
EPIC-Kitchens と EGTEA+ では,シーン・アベイランスの学習と,ロングフォームビデオにおける今後の行動を予測するためのアプローチを実証する。
論文 参考訳(メタデータ) (2020-01-14T01:20:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。