論文の概要: Writing Polishment with Simile: Task, Dataset and A Neural Approach
- arxiv url: http://arxiv.org/abs/2012.08117v1
- Date: Tue, 15 Dec 2020 06:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:27:52.943253
- Title: Writing Polishment with Simile: Task, Dataset and A Neural Approach
- Title(参考訳): Simileでポーランド語を書く:タスク,データセット,ニューラルアプローチ
- Authors: Jiayi Zhang, Zhi Cui, Xiaoqiang Xia, Yalong Guo, Yanran Li, Chen Wei,
Jianwei Cui
- Abstract要約: 我々は、機械が人間と同じようにシミュラでテキストを磨くことができるかどうかを調べるために、Simile (WPS) でポーランド語を書くための新しいタスクを提案する。
我々のモデルはまず、シミリの発生場所を特定し、次に位置固有のシミリを生成する。
また、コンテキスト付き500万マイルを含む大規模な中国シミールデータセットもリリースしています。
- 参考スコア(独自算出の注目度): 9.38000305423665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A simile is a figure of speech that directly makes a comparison, showing
similarities between two different things, e.g. "Reading papers can be dull
sometimes,like watching grass grow". Human writers often interpolate
appropriate similes into proper locations of the plain text to vivify their
writings. However, none of existing work has explored neural simile
interpolation, including both locating and generation. In this paper, we
propose a new task of Writing Polishment with Simile (WPS) to investigate
whether machines are able to polish texts with similes as we human do.
Accordingly, we design a two-staged Locate&Gen model based on transformer
architecture. Our model firstly locates where the simile interpolation should
happen, and then generates a location-specific simile. We also release a
large-scale Chinese Simile (CS) dataset containing 5 million similes with
context. The experimental results demonstrate the feasibility of WPS task and
shed light on the future research directions towards better automatic text
polishment.
- Abstract(参考訳): シミリ(simile)は、直接比較を行い、例えば2つの異なるもの間の類似性を示す音声の図形である。
「紙を読むのは、草が生えるのを見るように、時々鈍くなる。」
人間の作家はしばしば、適切なシミュラをプレーンテキストの適切な場所へ解釈して、彼らの著作を活気づける。
しかし、既存の研究では、探索と生成の両方を含むニューラルシミール補間を探求していない。
本稿では,機械が人間のようにシミールでテキストを磨くことができるかどうかを調べるため,simile (wps) を用いた研磨作業を提案する。
そこで我々は,トランスフォーマーアーキテクチャに基づく2段配置・生成モデルの設計を行った。
我々のモデルはまず、シミリ補間が行われるべき場所を特定し、次に位置特異的シミリを生成する。
また、コンテキスト付きで500万シミリを含む大規模な中国シマイル(cs)データセットもリリースしています。
実験結果は,WPSタスクの実現可能性を示し,将来的な研究の方向性を明らかにするものである。
関連論文リスト
- StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - I run as fast as a rabbit, can you? A Multilingual Simile Dialogue Dataset [26.42431190718335]
シミュラ(simile)とは、2つの異なるもの(テノールと車両と呼ばれる)を共通の性質で比較する言語である。
現在のシミュレート研究は、通常、三重項(テノール、資産、車両)または一文のシミュレートに焦点を当てている。
複雑なシミュレート現象の研究を容易にするために, 新規で高品質なマルチリンガル・シミュレート・ダイアログ(MSD)データセットを提案する。
論文 参考訳(メタデータ) (2023-06-09T05:04:13Z) - Learning to Imagine: Visually-Augmented Natural Language Generation [73.65760028876943]
本稿では,事前学習型言語モデル(PLM)を視覚的に拡張した自然言語gEnerationのために学習する手法を提案する。
拡散モデルを用いて、入力テキストに条件付き高品質な画像を合成する。
段落全体に対して1つの画像のみを生成するのではなく、各文に対して合成を行う。
論文 参考訳(メタデータ) (2023-05-26T13:59:45Z) - GENIUS: Sketch-based Language Model Pre-training via Extreme and
Selective Masking for Text Generation and Augmentation [76.7772833556714]
本稿では,スケッチを入力として用いた条件付きテキスト生成モデルGENIUSを紹介する。
genIUSは、スケッチの目的から新しく再構築された大規模なテキストコーパスで事前訓練されている。
様々な自然言語処理(NLP)タスクに対して, GENIUS は強力かつ使いやすいデータ拡張ツールとして利用できることを示す。
論文 参考訳(メタデータ) (2022-11-18T16:39:45Z) - Can Pre-trained Language Models Interpret Similes as Smart as Human? [15.077252268027548]
我々は,Simile Property Probing という新しいタスクを設計し,Simile の共有特性を事前学習した言語モデルで推測する。
我々の実証研究は、PLMが人間を過小評価しながら、模擬生物の共有特性を推測できることを示している。
人的パフォーマンスとのギャップを埋めるため,PLMに擬似知識を組み込むことで,知識を増強した学習目標を設計する。
論文 参考訳(メタデータ) (2022-03-16T07:57:34Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - Aligning Cross-lingual Sentence Representations with Dual Momentum
Contrast [12.691501386854094]
本稿では,異なる言語からの文表現を,単純なドット積で意味的類似性を計算可能な統合埋め込み空間に整合させることを提案する。
実験結果が示すように,本モデルが生成した文表現は,複数のタスクにおいて新たな最先端を実現する。
論文 参考訳(メタデータ) (2021-09-01T08:48:34Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - Generating similes effortlessly like a Pro: A Style Transfer Approach
for Simile Generation [65.22565071742528]
擬似言語のような表現言語は、読者に新たな洞察とインスピレーションを与えるために、平易な表現を越えている。
シミリを生成するには、2つの概念の間のプロパティの効果的なマッピングを適切に理解する必要がある。
機械が生成した物語の最良のモデルから、リテラル文をシミュラに置き換えることで、挑発性が向上し、人間の審査員の受け入れが向上することを示す。
論文 参考訳(メタデータ) (2020-09-18T17:37:13Z) - Comparative Analysis of N-gram Text Representation on Igbo Text Document
Similarity [0.0]
情報技術の進歩は、オンラインのリソースやニュース記事などのテキスト作成において、Igboの使用を奨励している。
ユークリッド類似度尺度を用いて、2つの単語ベースのn-gramテキスト表現(ユニグラムとビッグラム)モデルで表されるIgboテキスト文書間の類似度を決定する。
論文 参考訳(メタデータ) (2020-04-01T12:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。