論文の概要: Dynamic Memory Induction Networks for Few-Shot Text Classification
- arxiv url: http://arxiv.org/abs/2005.05727v1
- Date: Tue, 12 May 2020 12:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:14:49.270918
- Title: Dynamic Memory Induction Networks for Few-Shot Text Classification
- Title(参考訳): 少ないテキスト分類のための動的メモリ誘導ネットワーク
- Authors: Ruiying Geng, Binhua Li, Yongbin Li, Jian Sun, Xiaodan Zhu
- Abstract要約: 本稿では,テキスト分類のための動的メモリ誘導ネットワーク(DMIN)を提案する。
提案したモデルでは, miniRCV1 と ODIC データセット上での新たな最先端結果を実現し,最高の性能(精度)を24%向上させる。
- 参考スコア(独自算出の注目度): 84.88381813651971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Dynamic Memory Induction Networks (DMIN) for few-shot
text classification. The model utilizes dynamic routing to provide more
flexibility to memory-based few-shot learning in order to better adapt the
support sets, which is a critical capacity of few-shot classification models.
Based on that, we further develop induction models with query information,
aiming to enhance the generalization ability of meta-learning. The proposed
model achieves new state-of-the-art results on the miniRCV1 and ODIC dataset,
improving the best performance (accuracy) by 2~4%. Detailed analysis is further
performed to show the effectiveness of each component.
- Abstract(参考訳): 本稿では,テキスト分類のための動的メモリ誘導ネットワーク(DMIN)を提案する。
このモデルは動的ルーティングを使用して、メモリベースの少数ショット学習に柔軟性を提供し、少数ショット分類モデルのクリティカルキャパシティであるサポートセットをより適合させる。
そこで我々は,メタ学習の一般化能力の向上を目的とした,クエリ情報付き帰納モデルをさらに発展させる。
提案したモデルでは, miniRCV1 と ODIC のデータセット上で新たな最先端結果を実現し,性能(精度)を 2~4% 向上させる。
さらに、各コンポーネントの有効性を示すために詳細な分析を行う。
関連論文リスト
- When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Dual-Query Multiple Instance Learning for Dynamic Meta-Embedding based
Tumor Classification [5.121989578393729]
全スライド画像(WSI)の評価は、がんの診断と治療計画において困難かつ重要なステップである。
粗粒度のラベルは容易にアクセスでき、WSI分類がマルチインスタンス学習(MIL)の理想的なユースケースとなる。
埋め込み型Dual-Query MILパイプライン(DQ-MIL)を提案する。
論文 参考訳(メタデータ) (2023-07-14T17:06:49Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Dynamic Kernels and Channel Attention with Multi-Layer Embedding
Aggregation for Speaker Verification [28.833851817220616]
本稿では,畳み込みニューラルネットワークにおける注意に基づく動的カーネルを用いたモデル分解能の向上手法を提案する。
提案した動的畳み込みモデルはVoxCeleb1テストセットで1.62%のEERと0.18のミニDCFを達成し、ECAPA-TDNNと比較して17%改善した。
論文 参考訳(メタデータ) (2022-11-03T17:13:28Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Learning Intermediate Representations using Graph Neural Networks for
NUMA and Prefetchers Optimization [1.3999481573773074]
本稿では,コード中の静的中間表現(IR)が,性能プロファイリングの禁止コストを伴わずにNUMA/prefetcher最適化を導出する方法を示す。
静的中間表現に基づくモデルでは,高コストな動的性能プロファイリングに基づく戦略によって得られる性能向上の80%を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-01T16:51:30Z) - Learning Instance and Task-Aware Dynamic Kernels for Few Shot Learning [32.3217883750605]
我々は、手前のタスクの関数として畳み込みネットワークの動的カーネルを学習し、より高速な一般化を可能にする。
実験により,本モデルでは,数発の分類および検出タスクの性能向上を実証的に示す。
論文 参考訳(メタデータ) (2021-12-07T04:52:36Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。