論文の概要: Context-Based Quotation Recommendation
- arxiv url: http://arxiv.org/abs/2005.08319v2
- Date: Wed, 19 Aug 2020 05:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:36:07.013146
- Title: Context-Based Quotation Recommendation
- Title(参考訳): 文脈に基づく引用勧告
- Authors: Ansel MacLaughlin, Tao Chen, Burcu Karagol Ayan, Dan Roth
- Abstract要約: 本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
- 参考スコア(独自算出の注目度): 60.93257124507105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While composing a new document, anything from a news article to an email or
essay, authors often utilize direct quotes from a variety of sources. Although
an author may know what point they would like to make, selecting an appropriate
quote for the specific context may be time-consuming and difficult. We
therefore propose a novel context-aware quote recommendation system which
utilizes the content an author has already written to generate a ranked list of
quotable paragraphs and spans of tokens from a given source document.
We approach quote recommendation as a variant of open-domain question
answering and adapt the state-of-the-art BERT-based methods from open-QA to our
task. We conduct experiments on a collection of speech transcripts and
associated news articles, evaluating models' paragraph ranking and span
prediction performances. Our experiments confirm the strong performance of
BERT-based methods on this task, which outperform bag-of-words and neural
ranking baselines by more than 30% relative across all ranking metrics.
Qualitative analyses show the difficulty of the paragraph and span
recommendation tasks and confirm the quotability of the best BERT model's
predictions, even if they are not the true selected quotes from the original
news articles.
- Abstract(参考訳): ニュース記事から電子メールやエッセイまで、新しい文書を作成している間、著者は様々な情報源から直接引用することが多い。
著者は作成したいポイントを知っているかもしれないが、特定のコンテキストに対する適切な引用を選択するのは時間がかかり、難しいかもしれない。
そこで本稿では,著者がすでに書いたコンテンツを利用して,引用可能な段落やトークンのランク付けリストを生成する,新しい文脈対応引用推薦システムを提案する。
提案手法は,オープンQAからタスクまで,最先端のBERTベースの手法を応用した,オープンドメイン質問応答の変種として引用レコメンデーションにアプローチする。
我々は,音声テキストと関連するニュース記事の収集実験を行い,モデルの段落ランキングと予測性能を評価する。
本研究は,このタスクにおけるBERTに基づく手法の強い性能を検証し,全てのランキング指標に対して,単語のバイン・オブ・ワードとニューラルネットワークのランキング基準を30%以上上回る性能を示した。
定性的な分析は、たとえ原ニュース記事から真に選択された引用ではないとしても、段落の難しさと推奨タスクの範囲を示し、最高のBERTモデルの予測の引用可能性を確認する。
関連論文リスト
- ALiiCE: Evaluating Positional Fine-grained Citation Generation [54.19617927314975]
本稿では,微細な引用生成のための最初の自動評価フレームワークであるALiiCEを提案する。
我々のフレームワークはまず、文のクレームを依存性分析によって原子クレームに解析し、次に原子クレームレベルでの引用品質を計算する。
複数大言語モデルの2つの長文QAデータセット上での位置的きめ細かな引用生成性能を評価する。
論文 参考訳(メタデータ) (2024-06-19T09:16:14Z) - Multi-Layer Ranking with Large Language Models for News Source Recommendation [20.069181633869093]
我々はNewsQuoteと呼ばれる新しいデータセットを構築し、ニュース記事の収集から得られた23,571の引用話者ペアで構成されています。
我々は,特定のクエリに関連付けられる可能性に基づいて,専門家の検索として推薦タスクを定式化する。
この結果から,テキスト内学習に基づくLLMランキングと多層ランキングに基づくフィルタを用いることで,推薦システムの予測品質と行動品質を著しく向上することがわかった。
論文 参考訳(メタデータ) (2024-06-17T17:02:34Z) - Verifiable Generation with Subsentence-Level Fine-Grained Citations [13.931548733211436]
検証可能な生成には、出力をサポートするソースドキュメントを引用するために、大きな言語モデルが必要である。
先行研究は主に文レベルの引用の生成を目標としており、引用された情報源によって文のどの部分が裏付けられているかの特異性が欠如している。
本研究は, サブ文レベルのきめ細かな引用による生成を検証し, 引用元が支持する生成コンテンツのより正確な位置について検討する。
論文 参考訳(メタデータ) (2024-06-10T09:32:37Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Recommending Multiple Positive Citations for Manuscript via
Content-Dependent Modeling and Multi-Positive Triplet [6.7854900381386845]
我々は、引用推薦のための新しい科学的論文モデリング、すなわち、Citation Recommendationのための多陽性BERTモデル(MP-BERT4CR)を提案する。
提案手法には次のような利点がある: まず、提案された多陽性目的は複数の正の候補を推薦するのに効果的である。
MP-BERT4CRは、過去のものと比べ歴史的に低い頻度の共引用ペアの完全なリストを取得するのにも有効である。
論文 参考訳(メタデータ) (2021-11-25T04:09:31Z) - MDERank: A Masked Document Embedding Rank Approach for Unsupervised
Keyphrase Extraction [41.941098507759015]
キーワードは、コアコンテンツの簡潔な要約を提供するドキュメントのフレーズで、読者が記事が少しで何を言っているのかを理解するのに役立つ。
BERTをベースとしたモデルを用いて,MASK戦略を用いて候補キーフレーズの選択とランク付けを行う,新しい教師なしキーワード抽出手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T11:29:17Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z) - SPECTER: Document-level Representation Learning using Citation-informed
Transformers [51.048515757909215]
SPECTERは、Transformer言語モデルの事前学習に基づいて、科学文書の文書レベルの埋め込みを生成する。
SciDocsは、引用予測から文書分類、レコメンデーションまでの7つの文書レベルのタスクからなる新しい評価ベンチマークである。
論文 参考訳(メタデータ) (2020-04-15T16:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。