論文の概要: Paraphrasing via Ranking Many Candidates
- arxiv url: http://arxiv.org/abs/2107.09274v1
- Date: Tue, 20 Jul 2021 06:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 21:35:43.883525
- Title: Paraphrasing via Ranking Many Candidates
- Title(参考訳): 多くの候補のランク付けによるパラフレーズ化
- Authors: Joosung Lee
- Abstract要約: 本稿では,様々なパラフレーズを簡便かつ効果的に生成し,その中から良質なパラフレーズを見出す方法を提案する。
生成モデルと復号化オプションの組合せが1つしかないと仮定するのではなく、複数の候補から最適な候補を見つけることに注力する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple and effective way to generate a variety of paraphrases
and find a good quality paraphrase among them. As in previous studies, it is
difficult to ensure that one generation method always generates the best
paraphrase in various domains. Therefore, we focus on finding the best
candidate from multiple candidates, rather than assuming that there is only one
combination of generative models and decoding options. Our approach shows that
it is easy to apply in various domains and has sufficiently good performance
compared to previous methods. In addition, our approach can be used for data
agumentation that extends the downstream corpus, showing that it can help
improve performance in English and Korean datasets.
- Abstract(参考訳): 様々なパラフレーズを簡便かつ効果的に生成し,その中から高品質なパラフレーズを見出す方法を提案する。
これまでの研究ではそうであるように、一つの生成法が常に様々な領域で最高のパラフレーズを生成することは困難である。
したがって、生成モデルと復号化オプションの組み合わせが1つしかないと仮定するのではなく、複数の候補から最適な候補を見つけることに注力する。
提案手法は, 様々な領域に適用が容易であり, 従来の手法に比べて十分な性能を有することを示す。
さらに、我々のアプローチは、下流コーパスを拡張し、英語と韓国のデータセットのパフォーマンス向上に役立つことを示すデータアグメンテーションに使用することができる。
関連論文リスト
- Retrieval is Accurate Generation [104.21926758253286]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Get the gist? Using large language models for few-shot
decontextualization [3.2271521193192734]
本稿では,大規模言語モデルを用いたデコンテクスト化手法を提案する。
本手法は,少数の例のみを用いて,複数の領域で実行可能な性能を実現する。
論文 参考訳(メタデータ) (2023-10-10T02:00:00Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Claim Optimization in Computational Argumentation [17.2929525695149]
議論の最適な配信は、人間とAIシステムの両方において、あらゆる議論において説得の鍵となる。
本稿では,クレーム最適化の課題として,クレームを最適化するために議論的なクレームを書き直すことを提案する。
論文 参考訳(メタデータ) (2022-12-17T16:30:27Z) - Efficient Entity Candidate Generation for Low-Resource Languages [13.789451365205665]
候補生成はエンティティリンクにおいて重要なモジュールである。
知識ベースを効果的に活用することが証明された複数のNLPタスクにおいて重要な役割を果たす。
本稿では,言語間エンティティリンクの文脈における候補生成問題の詳細な分析を行う。
論文 参考訳(メタデータ) (2022-06-30T09:49:53Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。