論文の概要: Self-Selective Context for Interaction Recognition
- arxiv url: http://arxiv.org/abs/2010.08750v1
- Date: Sat, 17 Oct 2020 09:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 11:56:10.518396
- Title: Self-Selective Context for Interaction Recognition
- Title(参考訳): 対話認識のための自己選択的文脈
- Authors: Mert Kilickaya, Noureldien Hussein, Efstratios Gavves, Arnold
Smeulders
- Abstract要約: 本研究では,人間と物体の相互作用認識のための自己選択コンテキスト(SSC)を提案する。
SSCは、人間オブジェクトとコンテキストの合同的な外観で動作し、最も差別的なコンテキストを認識に役立てる。
実験の結果,SSCはパラメータをはるかに少なくしながら,相互作用認識性能を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 27.866495303658404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-object interaction recognition aims for identifying the relationship
between a human subject and an object. Researchers incorporate global scene
context into the early layers of deep Convolutional Neural Networks as a
solution. They report a significant increase in the performance since generally
interactions are correlated with the scene (\ie riding bicycle on the city
street). However, this approach leads to the following problems. It increases
the network size in the early layers, therefore not efficient. It leads to
noisy filter responses when the scene is irrelevant, therefore not accurate. It
only leverages scene context whereas human-object interactions offer a
multitude of contexts, therefore incomplete. To circumvent these issues, in
this work, we propose Self-Selective Context (SSC). SSC operates on the joint
appearance of human-objects and context to bring the most discriminative
context(s) into play for recognition. We devise novel contextual features that
model the locality of human-object interactions and show that SSC can
seamlessly integrate with the State-of-the-art interaction recognition models.
Our experiments show that SSC leads to an important increase in interaction
recognition performance, while using much fewer parameters.
- Abstract(参考訳): 人間と物体の相互作用認識は、対象と対象の関係を識別することを目的としている。
研究者たちは、グローバルシーンコンテキストを、ソリューションとして深層畳み込みニューラルネットワークの初期レイヤに組み込んでいる。
一般的に相互作用はシーンと相関しているため,性能は著しく向上したと報告している(街路で自転車に乗る場合)。
しかし、このアプローチは以下の問題を引き起こす。
初期のレイヤのネットワークサイズを増加させるため、効率的ではない。
シーンが無関係である場合、ノイズのフィルタ応答を発生させるため、精度が低下する。
シーンコンテキストのみを活用するが、人間とオブジェクトの相互作用は複数のコンテキストを提供するため、不完全である。
これらの問題を回避するため,本稿では自己選択文脈(SSC)を提案する。
SSCは、人間オブジェクトとコンテキストの合同的な外観で動作し、最も差別的なコンテキストを認識に役立てる。
我々は,ヒューマン・オブジェクト間インタラクションの局所性をモデル化する新しい文脈特徴を考案し,sscが最先端インタラクション認識モデルとシームレスに統合可能であることを示す。
実験の結果,SSCはパラメータが少なく,相互作用認識性能が著しく向上することがわかった。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Conversation Understanding using Relational Temporal Graph Neural
Networks with Auxiliary Cross-Modality Interaction [2.1261712640167856]
感情認識は人間の会話理解にとって重要な課題である。
我々は,CORECT(Cross-Modality Interaction)を用いた入力時間グラフニューラルネットワークを提案する。
CORECTは会話レベルの対話と発話レベルの時間的依存関係を効果的にキャプチャする。
論文 参考訳(メタデータ) (2023-11-08T07:46:25Z) - Modelling Spatio-Temporal Interactions for Compositional Action
Recognition [21.8767024220287]
人間は、アクションやバックグラウンドに関わるオブジェクトが変更されても、アクションを認識する能力を持っている。
本研究では,インタラクション中心のアプローチが構成的Somes-Elseデータセットに与える影響を示す。
人-物-物間相互作用モデリングのアプローチは,標準的な行動認識データセットにおいても有効である。
論文 参考訳(メタデータ) (2023-05-04T09:37:45Z) - Effective Actor-centric Human-object Interaction Detection [20.564689533862524]
画像中の人間と物体の相互作用を検出する新しいアクター中心のフレームワークを提案する。
提案手法は,挑戦的なV-COCOとHICO-DETベンチマークの最先端化を実現する。
論文 参考訳(メタデータ) (2022-02-24T10:24:44Z) - Detecting Human-to-Human-or-Object (H2O) Interactions with DIABOLO [29.0200561485714]
我々は,Human-to-Human-or-Object(H2O)という2種類のインタラクションを扱う新しいインタラクションデータセットを提案する。
さらに, 人間の身体的態度の記述に近づき, 周囲の相互作用の標的について記述することを目的とした, 動詞の新たな分類法を導入する。
提案手法は,1回のフォワードパスにおける全てのインタラクションを検出するための,効率的な主観中心単発撮影法であるDIABOLOを提案する。
論文 参考訳(メタデータ) (2022-01-07T11:00:11Z) - Learning Asynchronous and Sparse Human-Object Interaction in Videos [56.73059840294019]
Asynchronous-Sparse Interaction Graph Networks(ASSIGN)は、ビデオシーン内のエンティティに関連するインタラクションイベントの構造を自動的に検出します。
ASSIGNは人間と物体の相互作用認識において試験され、人間のサブアクティビティのセグメンテーションおよびラベル付けにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-03T23:43:55Z) - Contextual Heterogeneous Graph Network for Human-Object Interaction
Detection [63.37410475907447]
この研究は、人間と物体を異なる種類のノードとしてモデル化する異種グラフネットワークを提案する。
さらに、クラス内コンテキストとクラス間コンテキストに基づくグラフアテンション機構を利用して学習を改善する。
論文 参考訳(メタデータ) (2020-10-20T04:20:33Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。