論文の概要: Telling Stories for Common Sense Zero-Shot Action Recognition
- arxiv url: http://arxiv.org/abs/2309.17327v1
- Date: Fri, 29 Sep 2023 15:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 13:03:45.463419
- Title: Telling Stories for Common Sense Zero-Shot Action Recognition
- Title(参考訳): コモンセンスゼロショット行動認識のための物語の語り方
- Authors: Shreyank N Gowda and Laura Sevilla-Lara
- Abstract要約: 本稿では,WikiHowの記事から抽出した多様なアクションクラスに対するリッチなテキスト記述を含む,新しいデータセットであるStoriesを紹介する。
各クラスに対して、アクションを特徴付けるために必要なステップ、シーン、オブジェクト、動詞を詳述した多文の物語を抽出する。
このコンテキストデータは、アクション間のニュアンス付き関係のモデリングを可能にし、ゼロショット転送への道を開く。
- 参考スコア(独自算出の注目度): 13.192214542337657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video understanding has long suffered from reliance on large labeled
datasets, motivating research into zero-shot learning. Recent progress in
language modeling presents opportunities to advance zero-shot video analysis,
but constructing an effective semantic space relating action classes remains
challenging. We address this by introducing a novel dataset, Stories, which
contains rich textual descriptions for diverse action classes extracted from
WikiHow articles. For each class, we extract multi-sentence narratives
detailing the necessary steps, scenes, objects, and verbs that characterize the
action. This contextual data enables modeling of nuanced relationships between
actions, paving the way for zero-shot transfer. We also propose an approach
that harnesses Stories to improve feature generation for training zero-shot
classification. Without any target dataset fine-tuning, our method achieves new
state-of-the-art on multiple benchmarks, improving top-1 accuracy by up to
6.1%. We believe Stories provides a valuable resource that can catalyze
progress in zero-shot action recognition. The textual narratives forge
connections between seen and unseen classes, overcoming the bottleneck of
labeled data that has long impeded advancements in this exciting domain. The
data can be found here: https://github.com/kini5gowda/Stories .
- Abstract(参考訳): ビデオ理解は長い間、大きなラベル付きデータセットに依存しており、ゼロショット学習の研究を動機付けてきた。
言語モデリングの最近の進歩は、ゼロショットビデオ解析の進歩をもたらすが、アクションクラスに関連する効果的な意味空間の構築は依然として困難である。
WikiHowの記事から抽出した多様なアクションクラスのためのリッチなテキスト記述を含む,新しいデータセットであるStoriesを導入することで,この問題に対処する。
各クラスについて,アクションを特徴付けるために必要なステップ,シーン,オブジェクト,動詞を詳述した多文物語を抽出する。
このコンテキストデータはアクション間のニュアンス関係のモデリングを可能にし、ゼロショット転送への道を開く。
また,Storiesを利用して特徴生成を改善し,ゼロショット分類を訓練する手法を提案する。
対象とするデータセットの微調整がなければ,複数のベンチマークで新たな最先端性を達成でき,トップ1の精度を最大6.1%向上させることができる。
私たちはストーリーは、ゼロショットアクション認識の進歩を触媒する貴重なリソースを提供すると信じています。
テキスト的な物語は、目に見えないクラスと見えないクラスの間のつながりを形作っており、このエキサイティングな領域の進歩を長い間妨げてきたラベル付きデータのボトルネックを克服している。
データは以下の通りである。
関連論文リスト
- Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - Less is More: A Closer Look at Semantic-based Few-Shot Learning [11.724194320966959]
Few-shot Learningは、利用可能な画像の数が非常に限られている新しいカテゴリを学習し、区別することを目的としている。
本稿では,テキスト情報と言語モデルを活用することを目的とした,数ショットの学習タスクのための,シンプルだが効果的なフレームワークを提案する。
広範に使われている4つのショットデータセットで実施した実験は、我々の単純なフレームワークが印象的な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-10T08:56:02Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Towards Open Vocabulary Learning: A Survey [146.90188069113213]
ディープニューラルネットワークは,セグメンテーションやトラッキング,検出といった,さまざまなコアタスクにおいて,目覚ましい進歩を遂げている。
近年、視覚言語事前学習の急速な進歩により、オープンな語彙設定が提案されている。
本稿では,その分野における最近の発展を要約し分析し,オープンな語彙学習の徹底的なレビューを行う。
論文 参考訳(メタデータ) (2023-06-28T02:33:06Z) - Disentangled Action Recognition with Knowledge Bases [77.77482846456478]
本研究では,新規な動詞や新規な名詞に対する合成行動認識モデルの一般化能力の向上を目指す。
従来の作業では、知識グラフ内の動詞-名詞合成アクションノードを使用しており、スケールを非効率にしている。
本提案手法は, 行動の固有な構成性を活用する, 知識ベースを用いた不整合行動認識(DARK)である。
論文 参考訳(メタデータ) (2022-07-04T20:19:13Z) - Template-based Approach to Zero-shot Intent Recognition [7.330908962006392]
本稿では、意図認識のための一般化されたゼロショット設定について検討する。
ゼロショットテキスト分類のベストプラクティスに従い、文ペアモデリングアプローチを用いてタスクを扱います。
未確認の意図に対して,従来のf1尺度を最大16%上回りました。
論文 参考訳(メタデータ) (2022-06-22T08:44:59Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z) - FineGym: A Hierarchical Video Dataset for Fine-grained Action
Understanding [118.32912239230272]
FineGymは体操ビデオの上に構築された新しいアクション認識データセットだ。
アクションレベルとサブアクションレベルの両方で3レベルのセマンティック階層を持つテンポラリアノテーションを提供する。
この新たな粒度レベルは、行動認識に重大な課題をもたらす。
論文 参考訳(メタデータ) (2020-04-14T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。