論文の概要: TextBox: A Unified, Modularized, and Extensible Framework for Text
Generation
- arxiv url: http://arxiv.org/abs/2101.02046v2
- Date: Thu, 7 Jan 2021 09:28:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 00:08:56.888736
- Title: TextBox: A Unified, Modularized, and Extensible Framework for Text
Generation
- Title(参考訳): TextBox: テキスト生成のための統一的でモジュール化された拡張可能なフレームワーク
- Authors: Junyi Li, Tianyi Tang, Gaole He, Jinhao Jiang, Xiaoxuan Hu, Puzhao
Xie, Wayne Xin Zhao, Ji-Rong Wen
- Abstract要約: 統一されたモジュール化されたテキスト生成フレームワークを提供するTextBoxと呼ばれるオープンライブラリをリリースします。
textboxはベンチマークデータセットに複数のテキスト生成モデルを実装し、vae、gan、事前学習された言語モデルなどのカテゴリをカバーする。
- 参考スコア(独自算出の注目度): 35.850627120858896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We release an open library, called TextBox, which provides a unified,
modularized, and extensible text generation framework. TextBox aims to support
a broad set of text generation tasks and models. In TextBox, we implements
several text generation models on benchmark datasets, covering the categories
of VAE, GAN, pre-trained language models, etc. Meanwhile, our library maintains
sufficient modularity and extensibility by properly decomposing the model
architecture, inference, learning process into highly reusable modules, which
allows easily incorporating new models into our framework. It is specially
suitable for researchers and practitioners to efficiently reproduce baseline
models and develop new models. TextBox is implemented based on PyTorch, and
released under Apache License 2.0 at https://github.com/RUCAIBox/TextBox.
- Abstract(参考訳): TextBoxと呼ばれるオープンライブラリをリリースし、統一され、モジュール化され、拡張可能なテキスト生成フレームワークを提供します。
TextBoxは、幅広いテキスト生成タスクとモデルをサポートすることを目指している。
TextBoxでは、ベンチマークデータセット上に複数のテキスト生成モデルを実装し、VAE、GAN、事前訓練された言語モデルなどのカテゴリをカバーする。
一方,本ライブラリは,モデルアーキテクチャ,推論,学習プロセスを高度に再利用可能なモジュールに適切に分解することにより,十分なモジュール化と拡張性を維持します。
研究者や実践者がベースラインモデルを効率的に再現し、新しいモデルを開発するのに特に適している。
TextBoxはPyTorchをベースに実装され、Apache License 2.0でhttps://github.com/RUCAIBox/TextBoxでリリースされた。
関連論文リスト
- ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - EATXT: A textual concrete syntax for EAST-ADL [5.34855193340848]
本稿では,EAST-ADLを用いた自動車アーキテクチャモデリング用エディタであるEATXTを紹介する。
EATXTエディタはXtextをベースにしており、コンテンツアシストやシリアライゼーションの改善など、基本的な機能と高度な機能を提供している。
本稿では, 編集機能とアーキテクチャ, 実装アプローチ, EATXT の以前の利用について述べる。
論文 参考訳(メタデータ) (2024-07-13T14:05:21Z) - TextDiffuser-2: Unleashing the Power of Language Models for Text
Rendering [118.30923824681642]
TextDiffuser-2は、テキストレンダリングのための言語モデルのパワーを解き放つことを目的としている。
拡散モデル内の言語モデルを用いて,行レベルでの位置とテキストを符号化する。
我々は広範な実験を行い、GPT-4Vと同様に、ヒトの参加者を含むユーザスタディを取り入れた。
論文 参考訳(メタデータ) (2023-11-28T04:02:40Z) - Controlled Text Generation via Language Model Arithmetic [7.687678490751105]
本稿では,大規模言語モデルの合成とバイアス化のための新しい推論フレームワークであるモデル演算を導入する。
モデル算術により生成したテキストのきめ細かい制御が可能であり, 毒性低減の課題において, 最先端の処理性能に優れることを示す。
論文 参考訳(メタデータ) (2023-11-24T13:41:12Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Generating Images with Multimodal Language Models [78.6660334861137]
本稿では,凍結したテキストのみの大規模言語モデルを,事前学習した画像エンコーダとデコーダモデルで融合する手法を提案する。
本モデルでは,画像検索,新しい画像生成,マルチモーダル対話など,多モーダルな機能群を示す。
論文 参考訳(メタデータ) (2023-05-26T19:22:03Z) - TextBox 2.0: A Text Generation Library with Pre-trained Language Models [72.49946755856935]
本稿では,事前学習言語モデル(PLM)の利用に着目し,包括的で統一されたライブラリであるTextBox 2.0を提案する。
包括的に言えば、私たちのライブラリは、13ドルの共通テキスト生成タスクと、それに対応する8,3ドルのデータセットをカバーしています。
また、効率的なトレーニング戦略を4ドルで実装し、スクラッチから新しいPLMを事前トレーニングするための4ドル世代目標を提供します。
論文 参考訳(メタデータ) (2022-12-26T03:50:36Z) - Multi-lingual Evaluation of Code Generation Models [82.7357812992118]
本稿では,MBXPとMultilingual HumanEval,MathQA-Xという,評価コード生成モデルに関する新しいベンチマークを提案する。
これらのデータセットは10以上のプログラミング言語をカバーする。
コード生成モデルの性能を多言語で評価することができる。
論文 参考訳(メタデータ) (2022-10-26T17:17:06Z) - MixingBoard: a Knowledgeable Stylized Integrated Text Generation
Platform [32.50773822686633]
MixingBoardは、知識に基づくスタイル付きテキスト生成に焦点を当てたデモを構築するためのプラットフォームである。
ローカル開発やリモートアクセス,WebページAPIなどのユーザインターフェースが提供されることで,ユーザが自身のデモを簡単に構築できるようになる。
論文 参考訳(メタデータ) (2020-05-17T20:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。