論文の概要: Active Learning for Natural Language Generation
- arxiv url: http://arxiv.org/abs/2305.15040v2
- Date: Tue, 17 Oct 2023 14:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 21:27:28.688803
- Title: Active Learning for Natural Language Generation
- Title(参考訳): 自然言語生成のためのアクティブラーニング
- Authors: Yotam Perlitz and Ariel Gera, Michal Shmueli-Scheuer, Dafna Sheinwald,
Noam Slonim, Liat Ein-Dor
- Abstract要約: 本稿では,自然言語生成のための能動的学習に関する最初の体系的研究について述べる。
以上の結果から,既存のAL戦略は不整合であることが示唆された。
分類と生成シナリオの顕著な違いを強調し,既存のAL戦略の選択行動を分析する。
- 参考スコア(独自算出の注目度): 17.14395724301382
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The field of Natural Language Generation (NLG) suffers from a severe shortage
of labeled data due to the extremely expensive and time-consuming process
involved in manual annotation. A natural approach for coping with this problem
is active learning (AL), a well-known machine learning technique for improving
annotation efficiency by selectively choosing the most informative examples to
label. However, while AL has been well-researched in the context of text
classification, its application to NLG remains largely unexplored. In this
paper, we present a first systematic study of active learning for NLG,
considering a diverse set of tasks and multiple leading selection strategies,
and harnessing a strong instruction-tuned model. Our results indicate that the
performance of existing AL strategies is inconsistent, surpassing the baseline
of random example selection in some cases but not in others. We highlight some
notable differences between the classification and generation scenarios, and
analyze the selection behaviors of existing AL strategies. Our findings
motivate exploring novel approaches for applying AL to generation tasks.
- Abstract(参考訳): 自然言語生成(NLG)の分野は、手作業のアノテーションに非常に高価で時間を要するため、ラベル付きデータの不足に悩まされている。
この問題に対処するための自然なアプローチは、最も有意義な例を選択的に選択することによって、アノテーション効率を改善するための有名な機械学習テクニックであるactive learning (al)である。
しかし、ALはテキスト分類の文脈でよく研究されてきたが、NLGへの応用はほとんど未調査である。
本稿では,多様なタスクセットと複数の指導的選択戦略を考慮したNLGの能動学習に関する最初の体系的研究を行い,強力な指導訓練モデルを用いた。
以上の結果から,既存のal戦略の性能は矛盾しており,ランダムな例選択のベースラインを上回っているが,そうでない場合もある。
分類シナリオと生成シナリオの顕著な違いを浮き彫りにして,既存のal戦略の選択行動を分析した。
本研究は,alを生成タスクに適用するための新しいアプローチを探求する動機付けである。
関連論文リスト
- Annotation Guidelines-Based Knowledge Augmentation: Towards Enhancing Large Language Models for Educational Text Classification [11.69740323250258]
大規模言語モデル(LLM)を改善するためのガイドラインベース知識拡張(AGKA)アプローチを提案する。
AGKAはGPT 4.0を使用して、アノテーションガイドラインからラベル定義の知識を取得し、ランダムアンダーサンプラーを適用していくつかの典型的な例を選択する。
実験の結果、AGKAは非微調整LDM(特にGPT 4.0とLlama 3 70B)を増強できることが示された。
論文 参考訳(メタデータ) (2024-06-03T03:09:01Z) - ALE: A Simulation-Based Active Learning Evaluation Framework for the
Parameter-Driven Comparison of Query Strategies for NLP [3.024761040393842]
Active Learning (AL)は、後続のサンプルやランダムなサンプルではなく、次にアノテータに有望なデータポイントを提案する。
この方法は、モデルパフォーマンスを維持しながらアノテーションの労力を節約することを目的としている。
NLPにおけるAL戦略の比較評価のための再現可能な能動学習評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-01T10:42:11Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - Reducing Confusion in Active Learning for Part-Of-Speech Tagging [100.08742107682264]
アクティブラーニング(AL)は、データ選択アルゴリズムを使用して、アノテーションコストを最小限に抑えるために有用なトレーニングサンプルを選択する。
本研究では、特定の出力タグのペア間の混乱を最大に低減するインスタンスの選択問題について検討する。
提案するAL戦略は,他のAL戦略よりも有意差で優れている。
論文 参考訳(メタデータ) (2020-11-02T06:24:58Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。