論文の概要: All About Knowledge Graphs for Actions
- arxiv url: http://arxiv.org/abs/2008.12432v1
- Date: Fri, 28 Aug 2020 01:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 02:03:52.857599
- Title: All About Knowledge Graphs for Actions
- Title(参考訳): アクションのための知識グラフに関するすべて
- Authors: Pallabi Ghosh, Nirat Saini, Larry S. Davis, Abhinav Shrivastava
- Abstract要約: ゼロショットと少数ショットのアクション認識に使用できる知識グラフ(KG)の理解を深める。
KGsの3つの異なる構成機構について検討した。
異なる実験装置に対する異なるKGの影響を広範囲に解析する。
- 参考スコア(独自算出の注目度): 82.39684757372075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current action recognition systems require large amounts of training data for
recognizing an action. Recent works have explored the paradigm of zero-shot and
few-shot learning to learn classifiers for unseen categories or categories with
few labels. Following similar paradigms in object recognition, these approaches
utilize external sources of knowledge (eg. knowledge graphs from language
domains). However, unlike objects, it is unclear what is the best knowledge
representation for actions. In this paper, we intend to gain a better
understanding of knowledge graphs (KGs) that can be utilized for zero-shot and
few-shot action recognition. In particular, we study three different
construction mechanisms for KGs: action embeddings, action-object embeddings,
visual embeddings. We present extensive analysis of the impact of different KGs
in different experimental setups. Finally, to enable a systematic study of
zero-shot and few-shot approaches, we propose an improved evaluation paradigm
based on UCF101, HMDB51, and Charades datasets for knowledge transfer from
models trained on Kinetics.
- Abstract(参考訳): 現在の行動認識システムは、行動を認識するために大量の訓練データを必要とする。
近年,ゼロショット学習と少数ショット学習のパラダイムを探求し,ラベルの少ない未確認カテゴリやカテゴリの分類法を学習している。
オブジェクト認識における類似のパラダイムに従い、これらのアプローチは外部の知識源(言語ドメインからの知識グラフなど)を利用する。
しかし、オブジェクトとは異なり、アクションの最良の知識表現とは何かは不明である。
本稿では,ゼロショットと少数ショットのアクション認識に使用できる知識グラフ(KG)の理解を深める。
特に,動作埋め込み,アクションオブジェクト埋め込み,視覚埋め込みの3つの異なる構成機構について検討した。
異なる実験装置における異なるKGの影響を広範囲に解析する。
最後に,ゼロショットと少数ショットのアプローチを体系的に研究するために, ucf101, hmdb51, およびcharadesデータセットに基づく改良評価パラダイムを提案する。
関連論文リスト
- Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Sample-Efficient Learning of Novel Visual Concepts [7.398195748292981]
最先端のディープラーニングモデルは、数ショットで新しいオブジェクトを認識するのに苦労している。
我々は,記号的知識グラフを最先端認識モデルに組み込むことで,効果的に数発の分類を行うことができることを示す。
論文 参考訳(メタデータ) (2023-06-15T20:24:30Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Hint-dynamic Knowledge Distillation [30.40008256306688]
HKDと呼ばれるHint-dynamic Knowledge Distillationは、動的スキームで教師のヒントから知識を抽出する。
メタウェイトネットワークを導入し、知識ヒントに関するインスタンス単位の重み係数を生成する。
CIFAR-100とTiny-ImageNetの標準ベンチマークの実験では、提案したHKDが知識蒸留タスクの効果を高めることが示されている。
論文 参考訳(メタデータ) (2022-11-30T15:03:53Z) - A Survey on Visual Transfer Learning using Knowledge Graphs [0.8701566919381223]
本調査は知識グラフ(KG)を用いた視覚伝達学習手法に焦点を当てる。
KGは、基礎となるグラフ構造化スキーマやベクトルベースの知識グラフの埋め込みにおいて補助的な知識を表現することができる。
本稿では,知識グラフの埋め込み手法の概要を概説し,それらを高次元の視覚的埋め込みと組み合わせた共同学習の目的について述べる。
論文 参考訳(メタデータ) (2022-01-27T20:19:55Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - Memory-augmented Dense Predictive Coding for Video Representation
Learning [103.69904379356413]
本稿では,新しいアーキテクチャと学習フレームワーク Memory-augmented Predictive Coding (MemDPC) を提案する。
本稿では、RGBフレームからの視覚のみの自己教師付きビデオ表現学習や、教師なし光学フローからの学習、あるいはその両方について検討する。
いずれの場合も、トレーニングデータの桁数が桁違いに少ない他のアプローチに対して、最先端または同等のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-08-03T17:57:01Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。