論文の概要: AbLit: A Resource for Analyzing and Generating Abridged Versions of
English Literature
- arxiv url: http://arxiv.org/abs/2302.06579v1
- Date: Mon, 13 Feb 2023 18:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 14:26:48.231520
- Title: AbLit: A Resource for Analyzing and Generating Abridged Versions of
English Literature
- Title(参考訳): AbLit: 英語文学の短縮版の分析と生成のためのリソース
- Authors: Melissa Roemmele, Kyle Shaffer, Katrina Olsen, Yiyi Wang, Steve
DeNeefe
- Abstract要約: 本稿では,英文学書の短縮版から派生した新たな資料AbLitについて紹介する。
データセットは、元のテキストとブリッジされたテキストの間のパスレベルのアライメントをキャプチャする。
我々はこれらのアライメントの言語関係を特徴付け、これらの関係を予測する自動モデルを作成し、新しいテキストの短縮を生成する。
- 参考スコア(独自算出の注目度): 1.076210145983805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating an abridged version of a text involves shortening it while
maintaining its linguistic qualities. In this paper, we examine this task from
an NLP perspective for the first time. We present a new resource, AbLit, which
is derived from abridged versions of English literature books. The dataset
captures passage-level alignments between the original and abridged texts. We
characterize the linguistic relations of these alignments, and create automated
models to predict these relations as well as to generate abridgements for new
texts. Our findings establish abridgement as a challenging task, motivating
future resources and research. The dataset is available at
github.com/roemmele/AbLit.
- Abstract(参考訳): テキストの短縮版を作成するには、言語的品質を維持しながらそれを短縮する必要がある。
本稿では,この課題をNLPの観点から初めて考察する。
本稿では,英文学書の短縮版から派生した新たな資料AbLitを紹介する。
データセットは、元のテキストと橋渡しされたテキストの間の通路レベルのアライメントをキャプチャする。
我々はこれらのアライメントの言語関係を特徴付け、これらの関係を予測する自動モデルを作成し、新しいテキストの短縮を生成する。
今後の資源と研究のモチベーションとして,橋渡しを課題課題として定めている。
データセットはgithub.com/roemmele/AbLitで入手できる。
関連論文リスト
- Mining Asymmetric Intertextuality [0.0]
非対称的テクスト間性(英: Asymmetric intertextuality)とは、テキスト間の一方的な関係を指す。
非対称なテクスチュアリティをマイニングするためのスケーラブルで適応的なアプローチを提案する。
本システムでは, 直接引用からパラフレーズ化, 文書間影響に至るまで, 様々なレベルのテクスト間関係を扱う。
論文 参考訳(メタデータ) (2024-10-19T16:12:22Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Automatic and Human-AI Interactive Text Generation [27.05024520190722]
本チュートリアルは、最先端の自然言語生成研究の概要を提供する。
テキストからテキストへの生成タスクは、セマンティック一貫性とターゲット言語スタイルの観点からより制約される。
論文 参考訳(メタデータ) (2023-10-05T20:26:15Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Leveraging Natural Supervision for Language Representation Learning and
Generation [8.083109555490475]
自然発生型監視を用いて,ニューラルネットワークのトレーニングと評価を改善するための3行の作業について述べる。
まず,NLPタスクに対する事前学習言語モデルの性能向上を支援するために,自己指導型学習損失について検討する。
文表現における意味論と構文のアンタングル化にパラフレーズペアを用いるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T17:26:03Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - Latin writing styles analysis with Machine Learning: New approach to old
questions [0.0]
中世のテキストは、世代から世代までのコミュニケーション手段を用いて、心から学び、普及した。
ラテン語で書かれた文学の特定の構成を考慮に入れれば、特定の物語テキストの親しみやすい情報源の確率パターンを探索し、示すことができる。
論文 参考訳(メタデータ) (2021-09-01T20:21:45Z) - Pretrained Language Models for Text Generation: A Survey [46.03096493973206]
本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。
我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
論文 参考訳(メタデータ) (2021-05-21T12:27:44Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。