論文の概要: Lexical Complexity Controlled Sentence Generation
- arxiv url: http://arxiv.org/abs/2211.14540v1
- Date: Sat, 26 Nov 2022 11:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 17:27:27.466792
- Title: Lexical Complexity Controlled Sentence Generation
- Title(参考訳): 語彙複雑性制御文生成
- Authors: Jinran Nie, Liner Yang, Yun Chen, Cunliang Kong, Junhui Zhu, Erhong
Yang
- Abstract要約: 語彙複雑性制御文生成の新しいタスクを提案する。
学級の読み書き、言語教育、取得などの分野では大きな可能性を秘めている。
本稿では,複雑性の埋め込みに基づく,単純かつ効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 6.298911438929862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text generation rarely considers the control of lexical complexity, which
limits its more comprehensive practical application. We introduce a novel task
of lexical complexity controlled sentence generation, which aims at keywords to
sentence generation with desired complexity levels. It has enormous potential
in domains such as grade reading, language teaching and acquisition. The
challenge of this task is to generate fluent sentences only using the words of
given complexity levels. We propose a simple but effective approach for this
task based on complexity embedding. Compared with potential solutions, our
approach fuses the representations of the word complexity levels into the model
to get better control of lexical complexity. And we demonstrate the feasibility
of the approach for both training models from scratch and fine-tuning the
pre-trained models. To facilitate the research, we develop two datasets in
English and Chinese respectively, on which extensive experiments are conducted.
Results show that our approach better controls lexical complexity and generates
higher quality sentences than baseline methods.
- Abstract(参考訳): テキスト生成は語彙複雑性の制御をほとんど考慮しないため、より包括的な実用的応用が制限される。
本稿では,語彙複雑性制御文生成の新たな課題について紹介する。
学級の読み書き、言語教育、取得などの分野では大きな可能性を秘めている。
このタスクの課題は、与えられた複雑性レベルの単語のみを使用して、フルーエントな文を生成することである。
本稿では,複雑性の埋め込みに基づく,単純かつ効果的な手法を提案する。
潜在的なソリューションと比較して、我々のアプローチは語彙の複雑さをよりよく制御するために、単語の複雑さレベルをモデルに融合します。
また,学習モデルのスクラッチ化と事前学習モデルの微調整を両立させる手法の可能性を示した。
研究を容易にするために,英語と中国語の2つのデータセットを開発し,広範な実験を行った。
提案手法は語彙の複雑さを制御し,ベースライン法よりも高品質な文を生成する。
関連論文リスト
- Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Self-Convinced Prompting: Few-Shot Question Answering with Repeated
Introspection [13.608076739368949]
本稿では,大規模事前学習型言語モデルの可能性を活用する新しいフレームワークを提案する。
我々のフレームワークは、典型的な数発の連鎖プロンプトの出力を処理し、応答の正しさを評価し、回答を精査し、最終的には新しい解を生成する。
論文 参考訳(メタデータ) (2023-10-08T06:36:26Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Natural Language Decomposition and Interpretation of Complex Utterances [47.30126929007346]
本稿では,階層的な自然言語分解のプロセスを通じて,ユーザからの複雑な入出力発話を処理する手法を提案する。
我々のアプローチは、事前訓練された言語モデルを用いて、複雑な発話を単純な自然言語ステップのシーケンスに分解する。
実験の結果,提案手法は複雑な発話の解釈を可能にし,複雑な学習データはほとんどないことがわかった。
論文 参考訳(メタデータ) (2023-05-15T14:35:00Z) - Pseudo-Labels Are All You Need [3.52359746858894]
我々は,テキスト複雑度DEチャレンジ2022に応募する。
目標は、レベルBのドイツ語学習者のドイツ語文の複雑さを予測することである。
擬似ラベルに基づくアプローチは印象的な結果を与えるが、特定のタスクの調整はほとんど必要としない。
論文 参考訳(メタデータ) (2022-08-19T09:52:41Z) - Domain Adaptation in Multilingual and Multi-Domain Monolingual Settings
for Complex Word Identification [0.27998963147546146]
複雑な単語識別(CWI)は、適切なテキストの単純化に向けた基礎的なプロセスである。
CWIはコンテキストに大きく依存するが、その困難さは利用可能なデータセットの不足によって増大する。
対象文字とコンテキスト表現を改善するために,ドメイン適応に基づくCWIタスクのための新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-15T13:21:02Z) - Uniform Complexity for Text Generation [4.867923281108005]
テキスト生成のための統一複雑度(UCTG)は,生成モデルに一様言語特性をプロンプトに関して観察させるという課題を提起する新しいベンチマークテストである。
GPT-2のようなモデルは、プロフェッショナルなテキストで微調整しても、代々使われる入力プロンプトの複雑さを維持するのに苦労している。
論文 参考訳(メタデータ) (2022-04-11T15:19:47Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。