論文の概要: Applying a Generic Sequence-to-Sequence Model for Simple and Effective
Keyphrase Generation
- arxiv url: http://arxiv.org/abs/2201.05302v1
- Date: Fri, 14 Jan 2022 04:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:09:56.143097
- Title: Applying a Generic Sequence-to-Sequence Model for Simple and Effective
Keyphrase Generation
- Title(参考訳): 単純かつ効果的なキーフレーズ生成のためのジェネリックシーケンスからシーケンスへのモデルの適用
- Authors: Md Faisal Mahbub Chowdhury, Gaetano Rossiello, Michael Glass, Nandana
Mihindukulasooriya, Alfio Gliozzo
- Abstract要約: 本稿では,一般的なセq2seq言語モデルであるBARTを用いて,簡単な学習手順を用いて,テキストからキーフレーズを生成する方法を示す。
私たちのアプローチは、既存の最先端のKPGシステムと同等ですが、フレームワークをよりシンプルで簡単にデプロイできます。
- 参考スコア(独自算出の注目度): 16.511913995069097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, a number of keyphrase generation (KPG) approaches were
proposed consisting of complex model architectures, dedicated training
paradigms and decoding strategies. In this work, we opt for simplicity and show
how a commonly used seq2seq language model, BART, can be easily adapted to
generate keyphrases from the text in a single batch computation using a simple
training procedure. Empirical results on five benchmarks show that our approach
is as good as the existing state-of-the-art KPG systems, but using a much
simpler and easy to deploy framework.
- Abstract(参考訳): 近年、複雑なモデルアーキテクチャ、専用のトレーニングパラダイム、デコード戦略からなるkpg(keyphrase generation)アプローチが数多く提案されている。
そこで本研究では,簡単な学習手法を用いて,テキストからキーフレーズを生成するために,一般的なセq2seq言語モデルであるBARTをいかに簡単に適用できるかを示す。
5つのベンチマークによる実証的な結果から、我々のアプローチは既存の最先端のKPGシステムと同等だが、よりシンプルで簡単にデプロイできるフレームワークを使っている。
関連論文リスト
- Enhancing Automatic Keyphrase Labelling with Text-to-Text Transfer Transformer (T5) Architecture: A Framework for Keyphrase Generation and Filtering [2.1656586298989793]
本稿では,テキスト・テキスト・トランスフォーマ(T5)アーキテクチャに基づくキーフレーズ生成モデルを提案する。
また,T5アーキテクチャに基づく新しいキーフレーズフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T09:16:46Z) - MetaKP: On-Demand Keyphrase Generation [52.48698290354449]
オンデマンドのキーフレーズ生成は,特定のハイレベルな目標や意図に従うキーフレーズを必要とする新しいパラダイムである。
そこで我々は,4つのデータセット,7500のドキュメント,3760の目標からなる大規模ベンチマークであるMetaKPを紹介した。
ソーシャルメディアからの流行事象検出に応用して,一般のNLP基盤として機能する可能性を示す。
論文 参考訳(メタデータ) (2024-06-28T19:02:59Z) - SimCKP: Simple Contrastive Learning of Keyphrase Representations [36.88517357720033]
そこで本論文では,(1)文脈認識型フレーズレベルの表現からキーフレーズを抽出する抽出器・ジェネレータと,(2)生成したフレーズのスコアを対応する文書と整列させることで,文書に現れないキーフレーズを生成するリランカと,の2つの段階からなる単純なコントラスト学習フレームワークであるSimCKPを提案する。
論文 参考訳(メタデータ) (2023-10-12T11:11:54Z) - Rethinking Model Selection and Decoding for Keyphrase Generation with
Pre-trained Sequence-to-Sequence Models [76.52997424694767]
キーフレーズ生成(英: Keyphrase Generation, KPG)は、NLPにおける長年の課題である。
Seq2seq 事前訓練言語モデル (PLM) は KPG に転換期を迎え、有望な性能改善をもたらした。
本稿では, PLM に基づく KPG におけるモデル選択と復号化戦略の影響について, 系統解析を行った。
論文 参考訳(メタデータ) (2023-10-10T07:34:45Z) - Compositional Program Generation for Few-Shot Systematic Generalization [59.57656559816271]
コンポジションプログラムジェネレータ(CPG)と呼ばれるニューロシンボリックアーキテクチャに関する研究
CPGには3つの重要な特徴がある: 文法規則の形で、テキストモジュラリティ、テキストコンポジション、テキストタストラクションである。
SCAN と COGS のベンチマークでは,SCAN の14例と COGS の22例を使用して,完全な一般化を実現している。
論文 参考訳(メタデータ) (2023-09-28T14:33:20Z) - PIP: Parse-Instructed Prefix for Syntactically Controlled Paraphrase
Generation [61.05254852400895]
Parse-Instructed Prefix (PIP) は、大規模な事前学習言語モデルをチューニングするためのプレフィックスチューニングの新しい適応である。
このタスクの従来の微調整手法とは対照的に、PIPは学習可能なパラメータの10倍少ない計算効率の代替手段である。
論文 参考訳(メタデータ) (2023-05-26T07:42:38Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Keyphrase Extraction with Dynamic Graph Convolutional Networks and
Diversified Inference [50.768682650658384]
キーワード抽出(KE)は、ある文書でカバーされている概念やトピックを正確に表現するフレーズの集合を要約することを目的としている。
最近のシークエンス・ツー・シークエンス(Seq2Seq)ベースの生成フレームワークはKEタスクで広く使われ、様々なベンチマークで競合性能を得た。
本稿では,この2つの問題を同時に解くために,動的グラフ畳み込みネットワーク(DGCN)を採用することを提案する。
論文 参考訳(メタデータ) (2020-10-24T08:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。