論文の概要: Exploiting the Matching Information in the Support Set for Few Shot
Event Classification
- arxiv url: http://arxiv.org/abs/2002.05295v2
- Date: Fri, 19 Jun 2020 07:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:35:39.841319
- Title: Exploiting the Matching Information in the Support Set for Few Shot
Event Classification
- Title(参考訳): ショットイベント分類支援セットにおけるマッチング情報の展開
- Authors: Viet Dac Lai, Franck Dernoncourt, Thien Huu Nguyen
- Abstract要約: 数ショットの学習セットに基づくイベント分類について検討する。
本稿では,学習過程におけるサポートセットを効果的に活用する新たなトレーニング手法を提案する。
2つのベンチマークECデータセットを用いた実験の結果,提案手法は,イベント分類の精度を最大10%向上できることがわかった。
- 参考スコア(独自算出の注目度): 66.31312496170139
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The existing event classification (EC) work primarily focuseson the
traditional supervised learning setting in which models are unableto extract
event mentions of new/unseen event types. Few-shot learninghas not been
investigated in this area although it enables EC models toextend their
operation to unobserved event types. To fill in this gap, inthis work, we
investigate event classification under the few-shot learningsetting. We propose
a novel training method for this problem that exten-sively exploit the support
set during the training process of a few-shotlearning model. In particular, in
addition to matching the query exam-ple with those in the support set for
training, we seek to further matchthe examples within the support set
themselves. This method providesmore training signals for the models and can be
applied to every metric-learning-based few-shot learning methods. Our extensive
experiments ontwo benchmark EC datasets show that the proposed method can
improvethe best reported few-shot learning models by up to 10% on accuracyfor
event classification
- Abstract(参考訳): 既存のイベント分類(EC)は、モデルが新しいイベントタイプに関するイベントの言及を抽出できない従来の教師付き学習設定に重点を置いている。
この領域では、ECモデルは、観測されていないイベントタイプに操作を延ばすことができるが、ほとんど研究されていない。
このギャップを埋めるため,本研究では,イベントの分類を,マイズショット学習環境下で検討する。
そこで本研究では, 数発学習モデルの学習過程において, 支援セットを積極的に活用する新しい学習方法を提案する。
特に,問合せ試験とトレーニング支援セットの項目とのマッチングに加えて,サポートセット内の例をさらに一致させようとする。
この方法は、モデルに対してより多くのトレーニング信号を提供し、メトリックラーニングに基づく全ての少ショット学習方法に適用することができる。
2つのベンチマークecデータセットを用いた広範な実験により,提案手法は,イベント分類の精度を最大10%向上させることができた。
関連論文リスト
- Class-Incremental Few-Shot Event Detection [68.66116956283575]
本稿では,クラスインクリメンタルなイベント検出と呼ばれる新しいタスクを提案する。
このタスクは、古い知識の忘れと新しいクラスオーバーフィットという2つの問題に直面している。
そこで本研究では,Prompt-KDと呼ばれる新しい知識蒸留法と迅速な学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T09:31:14Z) - PILED: An Identify-and-Localize Framework for Few-Shot Event Detection [79.66042333016478]
本研究では,事前学習した言語モデルから事象関連知識を引き出すために,クローゼプロンプトを用いた。
型固有のパラメータの数を最小化し、新しい型に対するイベント検出タスクに迅速に適応できるようにします。
論文 参考訳(メタデータ) (2022-02-15T18:01:39Z) - Curriculum Meta-Learning for Few-shot Classification [1.5039745292757671]
本稿では,最新のメタ学習技術に適用可能なカリキュラム学習フレームワークの適応性を提案する。
数発の画像分類タスクにおけるMAMLアルゴリズムによる実験は,カリキュラムの学習フレームワークにおいて有意な効果を示した。
論文 参考訳(メタデータ) (2021-12-06T10:29:23Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Extensively Matching for Few-shot Learning Event Detection [66.31312496170139]
超視覚的な学習設定下でのイベント検出モデルは、新しいイベントタイプへの転送に失敗する。
イベント検出では、あまり画像学習は行われていない。
sup-port の例にマッチする2つのノベルロス因子を提案し,モデルにより多くのトレーニング信号を与える。
論文 参考訳(メタデータ) (2020-06-17T18:30:30Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。