論文の概要: Action Recognition based on Cross-Situational Action-object Statistics
- arxiv url: http://arxiv.org/abs/2208.07344v1
- Date: Mon, 15 Aug 2022 17:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:08:46.812067
- Title: Action Recognition based on Cross-Situational Action-object Statistics
- Title(参考訳): クロスsituational action-object statisticsに基づく行動認識
- Authors: Satoshi Tsutsui, Xizi Wang, Guangyuan Weng, Yayun Zhang, David
Crandall, Chen Yu
- Abstract要約: 我々は、より一般化能力の高い行動認識モデルに導かれる訓練データの特性を同定する。
私たちは、横断学習と呼ばれる認知メカニズムからインスピレーションを得ます。
- 参考スコア(独自算出の注目度): 6.361932543879511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models of visual action recognition are typically trained
and tested on data from specific situations where actions are associated with
certain objects. It is an open question how action-object associations in the
training set influence a model's ability to generalize beyond trained
situations. We set out to identify properties of training data that lead to
action recognition models with greater generalization ability. To do this, we
take inspiration from a cognitive mechanism called cross-situational learning,
which states that human learners extract the meaning of concepts by observing
instances of the same concept across different situations. We perform
controlled experiments with various types of action-object associations, and
identify key properties of action-object co-occurrence in training data that
lead to better classifiers. Given that these properties are missing in the
datasets that are typically used to train action classifiers in the computer
vision literature, our work provides useful insights on how we should best
construct datasets for efficiently training for better generalization.
- Abstract(参考訳): 視覚行動認識の機械学習モデルは通常、アクションが特定のオブジェクトに関連付けられる特定の状況のデータに基づいて訓練され、テストされる。
トレーニングセットにおけるアクションオブジェクトの関連付けが、トレーニングされた状況を超えて一般化するモデルの能力にどのように影響するかは、オープンな疑問である。
我々は、より一般化能力の高い行動認識モデルに繋がる訓練データの特性を特定した。
これを実現するために,人間学習者は異なる状況で同じ概念の例を観察することで概念の意味を抽出できる,クロス・シチュエーション・ラーニングと呼ばれる認知メカニズムから着想を得た。
各種のアクションオブジェクト関連を制御した実験を行い、より優れた分類結果をもたらすトレーニングデータにおけるアクションオブジェクト共起の鍵となる特性を同定する。
これらの特性が、コンピュータビジョンの文献でアクション分類器を訓練するのに一般的に使用されるデータセットに欠けていることを考えると、我々の研究は、より良い一般化のために効率的にデータセットを構築するのに最適な方法についての有益な洞察を提供する。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - SOS! Self-supervised Learning Over Sets Of Handled Objects In Egocentric
Action Recognition [35.4163266882568]
本稿では,SOS(Self-Supervised Learning Over Sets)を導入し,OIC(ジェネリック・オブジェクト・イン・コンタクト)表現モデルを事前学習する。
OICは複数の最先端ビデオ分類モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2022-04-10T23:27:19Z) - Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation [23.85039747700698]
視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
我々は、オブジェクト中心の表現を学習しながら、オブジェクトとそれに対応するトレーニング信号の多様なバリエーションをサンプリングするために、インタラクションを活用する。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析した。
論文 参考訳(メタデータ) (2021-12-15T08:25:30Z) - All About Knowledge Graphs for Actions [82.39684757372075]
ゼロショットと少数ショットのアクション認識に使用できる知識グラフ(KG)の理解を深める。
KGsの3つの異なる構成機構について検討した。
異なる実験装置に対する異なるKGの影響を広範囲に解析する。
論文 参考訳(メタデータ) (2020-08-28T01:44:01Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z) - Look-into-Object: Self-supervised Structure Modeling for Object
Recognition [71.68524003173219]
我々は,自己スーパービジョンを取り入れた「対象」(具体的かつ内在的に対象構造をモデル化する)を提案する。
認識バックボーンは、より堅牢な表現学習のために大幅に拡張可能であることを示す。
提案手法は汎用オブジェクト認識(ImageNet)や細粒度オブジェクト認識タスク(CUB, Cars, Aircraft)など,多数のベンチマークにおいて大きなパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-03-31T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。