論文の概要: Using dependency parsing for few-shot learning in distributional
semantics
- arxiv url: http://arxiv.org/abs/2205.06168v1
- Date: Thu, 12 May 2022 15:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 16:31:05.011314
- Title: Using dependency parsing for few-shot learning in distributional
semantics
- Title(参考訳): 分布セマンティクスにおける最小ショット学習のための依存構文解析の利用
- Authors: Stefania Preda and Guy Emerson
- Abstract要約: 背景空間として依存性ベースの単語埋め込みモデルを用いて、数ショットの学習を行う。
本稿では,加法ベースラインモデルを強化する2つの数ショット学習手法を提案する。
- 参考スコア(独自算出の注目度): 12.640283469603355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we explore the novel idea of employing dependency parsing
information in the context of few-shot learning, the task of learning the
meaning of a rare word based on a limited amount of context sentences. Firstly,
we use dependency-based word embedding models as background spaces for few-shot
learning. Secondly, we introduce two few-shot learning methods which enhance
the additive baseline model by using dependencies.
- Abstract(参考訳): 本研究では,限られた文脈文に基づいて稀な単語の意味を学習するタスクである,少数ショット学習の文脈における依存性解析情報を活用するという新しいアイデアを探求する。
まず、背景空間として依存性ベースの単語埋め込みモデルを用いて、数ショットの学習を行う。
第二に,依存性を用いることでベースラインモデルの付加性を高める,二点学習手法を提案する。
- 全文 参考訳へのリンク
関連論文リスト
- An Attention-Based Model for Predicting Contextual Informativeness and
Curriculum Learning Applications [9.513406231612734]
目的語に対する文脈情報度を効果的に把握する手法を提案する。
まず,文の指導的側面に着目し,文脈的情報度を推定するモデルを開発する。
第二に、我々のモデルは、対象語に対する読者の理解に最も寄与するであろう文中の重要な文脈要素をいかに識別するかを示す。
論文 参考訳(メタデータ) (2022-04-21T05:17:49Z) - On the Efficiency of Integrating Self-supervised Learning and
Meta-learning for User-defined Few-shot Keyword Spotting [51.41426141283203]
ユーザ定義キーワードスポッティングは、ユーザが定義する新しい音声用語を検出するタスクである。
これまでの研究は、自己教師付き学習モデルを取り入れたり、メタ学習アルゴリズムを適用しようとするものだった。
この結果から,HuBERTとMatching Networkを組み合わせることで,最適な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-01T10:59:39Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Task-Specific Dependency-based Word Embedding Methods [32.75244210656976]
テキスト分類のための2つのタスク依存型単語埋め込み手法を提案する。
1つ目は、依存性ベースの単語埋め込み(DWE)と呼ばれ、単語コンテキスト行列を構築するコンテキストとして、依存関係解析ツリー内の対象単語のキーワードと隣接する単語を選択する。
CEDWE(class-enhanced dependency-based word embedded)と呼ばれる2つ目の手法は、単語コンテキストと単語クラス共起統計から学習する。
論文 参考訳(メタデータ) (2021-10-26T03:09:41Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Learning to Bridge Metric Spaces: Few-shot Joint Learning of Intent
Detection and Slot Filling [29.218780709974244]
そこで本研究では,データリッチドメイン上で意図とスロットの計量空間をブリッジする学習手法を提案する。
われわれのモデルは、1ショットと5ショット設定で強いベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2021-05-25T15:07:11Z) - MCGNet: Partial Multi-view Few-shot Learning via Meta-alignment and
Context Gated-aggregation [51.270271836408625]
我々はtextbfpartial multi-view few-shot learningという新しい課題を提案する。
この課題は、未完成のマルチビュー事前知識を前提として、少数ショット学習問題を解決することを目的としている。
メタアライメントとコンテキストゲート・アグリゲーションを部分的多視点GNNと組み合わせることで,本手法は最先端の性能を得る。
論文 参考訳(メタデータ) (2021-05-05T13:34:43Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。