論文の概要: LaSQuE: Improved Zero-Shot Classification from Explanations Through
Quantifier Modeling and Curriculum Learning
- arxiv url: http://arxiv.org/abs/2212.09104v1
- Date: Sun, 18 Dec 2022 15:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:19:31.535696
- Title: LaSQuE: Improved Zero-Shot Classification from Explanations Through
Quantifier Modeling and Curriculum Learning
- Title(参考訳): lasque: 定量化モデルとカリキュラム学習による説明によるゼロショット分類の改善
- Authors: Sayan Ghosh, Rakesh R Menon, Shashank Srivastava
- Abstract要約: 本稿では,3つの新しい戦略を用いて,ゼロショット分類器を言語説明から学習する手法であるLaSQuEを提案する。
これらの戦略により、LaSQuEは以前の作業よりも優れており、現実の分類タスクを目にしないように一般化することで、最大7%の絶対的な増加を示している。
- 参考スコア(独自算出の注目度): 12.278877764015725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A hallmark of human intelligence is the ability to learn new concepts purely
from language. Several recent approaches have explored training machine
learning models via natural language supervision. However, these approaches
fall short in leveraging linguistic quantifiers (such as 'always' or 'rarely')
and mimicking humans in compositionally learning complex tasks. Here, we
present LaSQuE, a method that can learn zero-shot classifiers from language
explanations by using three new strategies - (1) modeling the semantics of
linguistic quantifiers in explanations (including exploiting ordinal strength
relationships, such as 'always' > 'likely'), (2) aggregating information from
multiple explanations using an attention-based mechanism, and (3) model
training via curriculum learning. With these strategies, LaSQuE outperforms
prior work, showing an absolute gain of up to 7% in generalizing to unseen
real-world classification tasks.
- Abstract(参考訳): 人間の知性の特徴は、純粋に言語から新しい概念を学ぶ能力である。
最近のいくつかのアプローチでは、自然言語監視による機械学習モデルのトレーニングが検討されている。
しかし、これらのアプローチは言語量化器(alwaysやrarelyなど)を活用し、複雑なタスクを合成的に学習する人間を模倣するのには不足している。
本稿では,(1)説明における言語量化器の意味論のモデル化(「always」>「likely」のような順序的強度関係の活用を含む),(2)注意に基づくメカニズムを用いた複数の説明からの情報を集約する,(3)カリキュラム学習によるモデル学習,という3つの新しい戦略を用いて,言語説明からゼロショット分類を学習する手法であるlasqueを提案する。
これらの戦略により、lasqueは以前の作業よりも優れており、認識できない現実世界の分類タスクの一般化において、7%の絶対的な利益を示している。
関連論文リスト
- In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Less is More: A Closer Look at Semantic-based Few-Shot Learning [11.724194320966959]
Few-shot Learningは、利用可能な画像の数が非常に限られている新しいカテゴリを学習し、区別することを目的としている。
本稿では,テキスト情報と言語モデルを活用することを目的とした,数ショットの学習タスクのための,シンプルだが効果的なフレームワークを提案する。
広範に使われている4つのショットデータセットで実施した実験は、我々の単純なフレームワークが印象的な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-10T08:56:02Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - A Simple Meta-learning Paradigm for Zero-shot Intent Classification with
Mixture Attention Mechanism [17.228616743739412]
ゼロショット意図分類のためのシンプルなメタ学習パラダイムを提案する。
発話のセマンティック表現を改善するために,新しい混合アテンション機構を導入する。
そこで我々は, メタ学習戦略を用いて, ゼロショット意図分類を改定する。
論文 参考訳(メタデータ) (2022-06-05T13:37:51Z) - CoLLIE: Continual Learning of Language Grounding from Language-Image
Embeddings [2.8478710949588284]
CoLLIEは、言語がどのように視覚に根ざされているかの継続的な学習のモデルである。
新しい言語の使用に対応するために必要な言語埋め込みを調整する変換関数を学習する。
ごく少数の例から,CoLLIEが効率的に学習し,一般化できることが示される。
論文 参考訳(メタデータ) (2021-11-15T18:54:58Z) - A Survey of Knowledge Enhanced Pre-trained Models [28.160826399552462]
知識注入を伴う事前学習言語モデルを知識強化事前学習言語モデル(KEPLM)と呼ぶ。
これらのモデルは深い理解と論理的推論を示し、解釈可能性を導入する。
論文 参考訳(メタデータ) (2021-10-01T08:51:58Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Systematic Generalization on gSCAN with Language Conditioned Embedding [19.39687991647301]
体系的一般化とは、学習アルゴリズムが学習した振る舞いを目に見えない状況に外挿する能力を指す。
本稿では,入力自然言語を条件とした動的メッセージパッシングによるオブジェクトの文脈的埋め込みを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T17:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。