論文の概要: MICK: A Meta-Learning Framework for Few-shot Relation Classification
with Small Training Data
- arxiv url: http://arxiv.org/abs/2004.14164v2
- Date: Mon, 14 Dec 2020 15:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:53:07.409782
- Title: MICK: A Meta-Learning Framework for Few-shot Relation Classification
with Small Training Data
- Title(参考訳): MICK:小さなトレーニングデータを用いたファウショット関係分類のためのメタラーニングフレームワーク
- Authors: Xiaoqing Geng, Xiwen Chen, Kenny Q. Zhu, Libin Shen, Yinggong Zhao
- Abstract要約: ほとんどショット関係の分類では、少数のサポートインスタンスに遭遇した後で、入ってくるクエリインスタンスを分類しようとする。
本稿では,関係分類のための数発の学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.349417678635765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot relation classification seeks to classify incoming query instances
after meeting only few support instances. This ability is gained by training
with large amount of in-domain annotated data. In this paper, we tackle an even
harder problem by further limiting the amount of data available at training
time. We propose a few-shot learning framework for relation classification,
which is particularly powerful when the training data is very small. In this
framework, models not only strive to classify query instances, but also seek
underlying knowledge about the support instances to obtain better instance
representations. The framework also includes a method for aggregating
cross-domain knowledge into models by open-source task enrichment.
Additionally, we construct a brand new dataset: the TinyRel-CM dataset, a
few-shot relation classification dataset in health domain with purposely small
training data and challenging relation classes. Experimental results
demonstrate that our framework brings performance gains for most underlying
classification models, outperforms the state-of-the-art results given small
training data, and achieves competitive results with sufficiently large
training data.
- Abstract(参考訳): 少数ショット関係分類は、サポートインスタンスがほとんどなかった後に着信したクエリインスタンスを分類することを求める。
この能力は、大量のドメイン内アノテートデータのトレーニングによって得られる。
本稿では,トレーニング時に利用可能なデータ量をさらに制限することにより,さらに難しい問題に取り組む。
本稿では,関係分類のための数発の学習フレームワークを提案する。
このフレームワークでは、モデルはクエリインスタンスを分類するだけでなく、より良いインスタンス表現を得るためにサポートインスタンスに関する基礎知識を求める。
このフレームワークには、オープンソースのタスクエンリッチメントによって、クロスドメインの知識をモデルに集約する方法も含まれている。
さらに、TinyRel-CMデータセット、健康領域における数ショットの関係分類データセット、目的的に小さなトレーニングデータ、挑戦的な関係クラスなど、新しいデータセットを構築します。
実験の結果,基礎となるほとんどの分類モデルにおいて性能が向上し,小規模トレーニングデータでは最先端結果を上回り,十分な大規模トレーニングデータで競争結果を得ることができた。
関連論文リスト
- A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Incremental Learning on Food Instance Segmentation [31.60448022949561]
本稿では,データラベリング予算に制限のあるモデル性能を最適化するインクリメンタル学習フレームワークを提案する。
フレームワークのパワーは、最新のトレーニングされたインスタンスセグメンテーションモデルに対して、非ラベルのサンプルがいかに困難であるかを予測する、新しい困難評価モデルである。
提案するフレームワークは,4つの大規模食品データセットにおいて,現在のインクリメンタルラーニングベンチマークより優れ,完全注釈付きサンプルでトレーニングしたモデルとの競合性能を実現している。
論文 参考訳(メタデータ) (2023-06-28T04:17:16Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Overcoming Classifier Imbalance for Long-tail Object Detection with
Balanced Group Softmax [88.11979569564427]
本報告では, 長期分布前における最先端モデルの過小評価に関する最初の体系的解析を行う。
本稿では,グループワイドトレーニングを通じて検出フレームワーク内の分類器のバランスをとるための,新しいバランス付きグループソフトマックス(BAGS)モジュールを提案する。
非常に最近の長尾大語彙オブジェクト認識ベンチマークLVISの大規模な実験により,提案したBAGSは検出器の性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-06-18T10:24:26Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。