論文の概要: ATGen: A Framework for Active Text Generation
- arxiv url: http://arxiv.org/abs/2506.23342v1
- Date: Sun, 29 Jun 2025 17:27:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.837541
- Title: ATGen: A Framework for Active Text Generation
- Title(参考訳): ATGen: アクティブテキスト生成フレームワーク
- Authors: Akim Tsvigun, Daniil Vasilev, Ivan Tsvigun, Ivan Lysenko, Talgat Bektleuov, Aleksandr Medvedev, Uliana Vinogradova, Nikita Severin, Mikhail Mozikov, Andrey Savchenko, Rostislav Grigorev, Ramil Kuleev, Fedor Zhdanov, Artem Shelmanov, Ilya Makarov,
- Abstract要約: テキスト生成タスクをALにブリッジする包括的なフレームワークであるActive Text Generation (ATGen)を紹介します。
我々のフレームワークは、人間のアノテーションエージェントと自動アノテーションエージェントの両方を用いて、NLGタスクにおけるALを利用したアノテーションを単純化する。
我々は、ATGenが人間のアノテーションの労力を減らし、LCMベースのアノテーションエージェントへのAPI呼び出しに関連するコストを削減できることを示します。
- 参考スコア(独自算出の注目度): 35.70964817565918
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Active learning (AL) has demonstrated remarkable potential in reducing the annotation effort required for training machine learning models. However, despite the surging popularity of natural language generation (NLG) tasks in recent years, the application of AL to NLG has been limited. In this paper, we introduce Active Text Generation (ATGen) - a comprehensive framework that bridges AL with text generation tasks, enabling the application of state-of-the-art AL strategies to NLG. Our framework simplifies AL-empowered annotation in NLG tasks using both human annotators and automatic annotation agents based on large language models (LLMs). The framework supports LLMs deployed as services, such as ChatGPT and Claude, or operated on-premises. Furthermore, ATGen provides a unified platform for smooth implementation and benchmarking of novel AL strategies tailored to NLG tasks. Finally, we present evaluation results for state-of-the-art AL strategies across diverse settings and multiple text generation tasks. We show that ATGen reduces both the effort of human annotators and costs associated with API calls to LLM-based annotation agents. The code of the framework is available on GitHub under the MIT license. The video presentation is available at http://atgen-video.nlpresearch.group
- Abstract(参考訳): アクティブ・ラーニング(AL)は、機械学習モデルのトレーニングに必要なアノテーションの労力を減らすのに顕著な可能性を示している。
しかし,近年の自然言語生成(NLG)タスクの普及にもかかわらず,ALのNLGへの適用は限られている。
本稿では,テキスト生成タスクをALにブリッジする包括的フレームワークであるActive Text Generation (ATGen)を導入し,最新のAL戦略をNLGに適用する。
我々のフレームワークは,大規模な言語モデル (LLM) に基づく人間のアノテーションと自動アノテーションエージェントの両方を用いて,NLGタスクにおけるALを利用したアノテーションを単純化する。
このフレームワークは、ChatGPTやClaudeといったサービスやオンプレミスで運用されるLLMをサポートする。
さらにATGenは、NLGタスクに適した新しいAL戦略のスムーズな実装とベンチマークのための統一されたプラットフォームを提供する。
最後に、多様な設定と複数のテキスト生成タスクにまたがる最先端AL戦略の評価結果を示す。
我々は、ATGenが人間のアノテーションの労力を減らし、LCMベースのアノテーションエージェントへのAPI呼び出しに関連するコストを削減できることを示します。
フレームワークのコードは、MITライセンス下でGitHubで入手できる。
ビデオプレゼンテーションはhttp://atgen-video.nlpresearch.groupで公開されている。
関連論文リスト
- ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。