論文の概要: ALICE: Active Learning with Contrastive Natural Language Explanations
- arxiv url: http://arxiv.org/abs/2009.10259v1
- Date: Tue, 22 Sep 2020 01:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:21:37.295821
- Title: ALICE: Active Learning with Contrastive Natural Language Explanations
- Title(参考訳): ALICE: 対照的な自然言語説明を用いたアクティブラーニング
- Authors: Weixin Liang, James Zou, Zhou Yu
- Abstract要約: 本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
- 参考スコア(独自算出の注目度): 69.03658685761538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a supervised neural network classifier typically requires many
annotated training samples. Collecting and annotating a large number of data
points are costly and sometimes even infeasible. Traditional annotation process
uses a low-bandwidth human-machine communication interface: classification
labels, each of which only provides several bits of information. We propose
Active Learning with Contrastive Explanations (ALICE), an expert-in-the-loop
training framework that utilizes contrastive natural language explanations to
improve data efficiency in learning. ALICE learns to first use active learning
to select the most informative pairs of label classes to elicit contrastive
natural language explanations from experts. Then it extracts knowledge from
these explanations using a semantic parser. Finally, it incorporates the
extracted knowledge through dynamically changing the learning model's
structure. We applied ALICE in two visual recognition tasks, bird species
classification and social relationship classification. We found by
incorporating contrastive explanations, our models outperform baseline models
that are trained with 40-100% more training data. We found that adding 1
explanation leads to similar performance gain as adding 13-30 labeled training
data points.
- Abstract(参考訳): 教師付きニューラルネットワーク分類器のトレーニングは通常、多くの注釈付きトレーニングサンプルを必要とする。
大量のデータポイントの収集と注釈付けはコストがかかり、時には不可能である。
従来のアノテーションプロセスでは、低帯域幅のヒューマンマシン通信インタフェース(分類ラベル)を使用している。
本研究では,学習におけるデータ効率を向上させるために,対照的な自然言語の説明を利用するエキスパート・イン・ザ・ループ・トレーニング・フレームワークであるActive Learning with Contrastive Explanations (ALICE)を提案する。
アリスはまずアクティブラーニングを使ってラベルクラスの最も有益なペアを選び、専門家から対照的な自然言語の説明を導き出す。
そして、意味解析器を用いてこれらの説明から知識を抽出する。
最後に、学習モデルの構造を動的に変化させることにより、抽出した知識を組み込む。
鳥種分類と社会関係分類の2つの視覚的タスクにALICEを適用した。
私たちのモデルは、40~100%のトレーニングデータでトレーニングされたベースラインモデルよりも優れています。
1つ説明を加えると、ラベル付きトレーニングデータポイントが13~30個追加されるのと同じパフォーマンス向上が得られることがわかった。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - K-XLNet: A General Method for Combining Explicit Knowledge with Language
Model Pretraining [5.178964604577459]
明示的な知識を活用することで、モデルの事前訓練を改善することに重点を置いています。
具体的には、まず知識グラフ(KG)から知識事実をマッチングし、次に直接変換器に知識命令層を追加する。
実験の結果,変圧器に外部知識を加えるだけで,多くのNLPタスクにおける学習性能が向上することが示された。
論文 参考訳(メタデータ) (2021-03-25T06:14:18Z) - Recognizing More Emotions with Less Data Using Self-supervised Transfer
Learning [0.0]
本稿では,音声認識のための新しい伝達学習手法を提案する。
感情のクラス毎の125のサンプルでは、8倍のデータでトレーニングされた強いベースラインよりも高い精度を達成できたのです。
論文 参考訳(メタデータ) (2020-11-11T06:18:31Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。