論文の概要: From Solving a Problem Boldly to Cutting the Gordian Knot: Idiomatic
Text Generation
- arxiv url: http://arxiv.org/abs/2104.06541v1
- Date: Tue, 13 Apr 2021 22:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:24:18.870165
- Title: From Solving a Problem Boldly to Cutting the Gordian Knot: Idiomatic
Text Generation
- Title(参考訳): 問題を大胆に解くことから、ゴルディアノットを切ることへ:慣用的なテキスト生成
- Authors: Jianing Zhou, Hongyu Gong, Suma Bhat
- Abstract要約: テキスト生成のための新しいアプリケーション、慣用文生成について研究する。
与えられたリテラル文に対して適切なイディオムを求める,このタスクに対する新しいアプローチを提案する。
得られたイディオムと残りの文を組み合わせるために,ニューラルモデルを用いて慣用文を生成する。
- 参考スコア(独自算出の注目度): 14.360808219541752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a new application for text generation -- idiomatic sentence
generation -- which aims to transfer literal phrases in sentences into their
idiomatic counterparts. Inspired by psycholinguistic theories of idiom use in
one's native language, we propose a novel approach for this task, which
retrieves the appropriate idiom for a given literal sentence, extracts the span
of the sentence to be replaced by the idiom, and generates the idiomatic
sentence by using a neural model to combine the retrieved idiom and the
remainder of the sentence. Experiments on a novel dataset created for this task
show that our model is able to effectively transfer literal sentences into
idiomatic ones. Furthermore, automatic and human evaluations show that for this
task, the proposed model outperforms a series of competitive baseline models
for text generation.
- Abstract(参考訳): 文中のリテラルをその慣用句に転送することを目的とした,新しいテキスト生成アプリケーションである慣用文生成について検討する。
本研究は,自国語における慣用句の使用に関する心理言語学的な理論に着想を得て,与えられた文の適切な慣用句を検索し,その句に置き換える文のスパンを抽出し,検索された慣用句と残りの文を結合するニューラルモデルを用いて慣用文を生成する新しい手法を提案する。
このタスクのために作成された新しいデータセットの実験は、我々のモデルがリテラル文を慣用句に効果的に転送できることを示している。
さらに, 自動評価と人間評価により, 提案手法がテキスト生成のための一連の競合ベースラインモデルよりも優れていることを示す。
関連論文リスト
- Neural paraphrasing by automatically crawled and aligned sentence pairs [11.95795974003684]
ニューラルネットワークベースのパラフレーズ化に対する主な障害は、一致した文とパラフレーズのペアを持つ大きなデータセットの欠如である。
本稿では,ニュースサイトやブログサイトが,異なる物語スタイルを用いて同じ出来事を語るという仮定に基づいて,大規模コーパスの自動生成手法を提案する。
本稿では,言語制約のある類似性探索手法を提案する。これは,参照文が与えられた場合,数百万のインデックス付き文から最も類似した候補パラフレーズを見つけることができる。
論文 参考訳(メタデータ) (2024-02-16T10:40:38Z) - TwistList: Resources and Baselines for Tongue Twister Generation [17.317550526263183]
本稿では,音声の重なりを最大化するために音声条件が要求される言語である舌ねじれ音の生成について述べる。
我々は2.1K以上の人為的な例からなる舌ねじれの大規模な注釈付きデータセットである textbfTwistList を提示する。
また,提案課題である舌ねじれ生成のためのベンチマークシステムについても,ドメイン内データのトレーニングを必要とせず,かつ必要としないモデルも提示する。
論文 参考訳(メタデータ) (2023-06-06T07:20:51Z) - Training Effective Neural Sentence Encoders from Automatically Mined
Paraphrases [0.0]
そこで本稿では,手動でラベル付けしたデータを用いずに,効果的な言語固有文エンコーダを訓練する手法を提案する。
本研究の目的は,文の一致したバイリンガルテキストコーパスからパラフレーズペアのデータセットを自動構築することである。
文エンコーダは1枚のグラフィックカードで1日以内で訓練でき、多種多様な文レベルのタスクで高い性能を達成できる。
論文 参考訳(メタデータ) (2022-07-26T09:08:56Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Typical Decoding for Natural Language Generation [76.69397802617064]
本稿は,高確率テキストが退屈あるいは反復的である理由について考察する。
典型的なサンプリングでは,品質面での競争性能が期待できる。
論文 参考訳(メタデータ) (2022-02-01T18:58:45Z) - Generating Adversarial Examples in Chinese Texts Using Sentence-Pieces [60.58900627906269]
文片を用いた代用ジェネレータとして,中国語の逆例を作成できる事前学習型言語モデルを提案する。
生成した敵の例の置換は文字や単語ではなく「テキスト」であり、中国の読者にとって自然である。
論文 参考訳(メタデータ) (2020-12-29T14:28:07Z) - Don't Change Me! User-Controllable Selective Paraphrase Generation [45.0436584774495]
パラフレーズ生成では、ソース文は変更すべきでないフレーズを含むことが多い。
私たちのソリューションは、任意のテキストセグメントに配置できる明示的なタグをユーザに提供することです。
この研究の貢献は、遠隔監視を用いた新しいデータ生成技術である。
論文 参考訳(メタデータ) (2020-08-21T03:31:50Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Metaphoric Paraphrase Generation [58.592750281138265]
クラウドソーシングを用いてその結果を評価し,メタファー的パラフレーズを評価するための自動指標を開発する。
語彙置換ベースラインは正確なパラフレーズを生成できるが、比喩的でないことが多い。
メタファーマスキングモデルでは,メタファー文の生成に優れ,流布やパラフレーズの品質に関してはほぼ同等に機能する。
論文 参考訳(メタデータ) (2020-02-28T16:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。