論文の概要: Keyphrase Generation with Fine-Grained Evaluation-Guided Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2104.08799v1
- Date: Sun, 18 Apr 2021 10:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:06:14.467759
- Title: Keyphrase Generation with Fine-Grained Evaluation-Guided Reinforcement
Learning
- Title(参考訳): 細粒度評価誘導強化学習によるキーフレーズ生成
- Authors: Yichao Luo, Yige Xu, Jiacheng Ye, Xipeng Qiu, Qi Zhang
- Abstract要約: キーフレーズ生成(KG)は、ある文書から中心的なアイデアを取得するための古典的なタスクである。
本稿では,異なる粒度を考慮した新しい粒度評価指標を提案する。
より不規則な言語パターンを学習するために、予測キーフレーズとターゲットキーフレーズの連続的な類似度スコアを計算するために、事前訓練されたモデル(例えばBERT)を用いる。
- 参考スコア(独自算出の注目度): 30.09715149060206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming to generate a set of keyphrases, Keyphrase Generation (KG) is a
classical task for capturing the central idea from a given document. Typically,
traditional KG evaluation metrics are only aware of the exact correctness of
predictions on phrase-level and ignores the semantic similarities between
similar predictions and targets, which inhibits the model from learning deep
linguistic patterns. In this paper, we propose a new fine-grained evaluation
metric that considers different granularity: token-level $F_1$ score, edit
distance, duplication, and prediction quantities. For learning more recessive
linguistic patterns, we use a pre-trained model (e.g., BERT) to compute the
continuous similarity score between predicted keyphrases and target keyphrases.
On the whole, we propose a two-stage Reinforcement Learning (RL) training
framework with two reward functions: our proposed fine-grained evaluation score
and the vanilla $F_1$ score. This framework helps the model identifying some
partial match phrases which can be further optimized as the exact match ones.
Experiments on four KG benchmarks show that our proposed training framework
outperforms the traditional RL training frameworks among all evaluation scores.
In addition, our method can effectively ease the synonym problem and generate a
higher quality prediction.
- Abstract(参考訳): キーフレーズ生成(英: keyphrase generation、kg)とは、特定の文書から中央のアイデアをキャプチャする古典的なタスクである。
通常、伝統的なKG評価指標は、フレーズレベルでの予測の正確さのみを認識し、類似した予測とターゲットのセマンティックな類似性を無視し、モデルが深い言語パターンを学習することを妨げる。
本稿では,トークンレベルの$F_1$スコア,編集距離,重複量,予測量など,異なる粒度を考慮した新たな粒度評価指標を提案する。
より不規則な言語パターンを学習するために、予測キーフレーズとターゲットキーフレーズの連続的な類似度スコアを計算するために、事前訓練されたモデル(例えばBERT)を用いる。
提案する細粒度評価スコアとバニラ$f_1$スコアの2つの報酬機能を持つ2段階強化学習(rl)トレーニングフレームワークを提案する。
このフレームワークは、正確なマッチ句としてさらに最適化できる部分マッチ句を識別するモデルを支援する。
4つのKGベンチマーク実験の結果,提案したトレーニングフレームワークは,従来のRLトレーニングフレームワークよりも優れていた。
さらに,同義語問題を効果的に緩和し,高品質な予測を行うことができる。
関連論文リスト
- Adapting Dual-encoder Vision-language Models for Paraphrased Retrieval [55.90407811819347]
モデルが類似した結果を返すことを目的とした,パラフレーズ付きテキスト画像検索の課題について考察する。
我々は、大きなテキストコーパスで事前訓練された言語モデルから始まる二重エンコーダモデルを訓練する。
CLIPやOpenCLIPのような公開デュアルエンコーダモデルと比較して、最高の適応戦略で訓練されたモデルは、パラフレーズクエリのランク付けの類似性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-06T06:30:17Z) - Assessing Keyness using Permutation Tests [0.0]
トークン単位のサンプリングモデルを,トークンではなく文書のサンプルであるコーパスモデルに置き換える。
トークンがドキュメント内やドキュメント間でどのように整理されているかという仮定は必要ありません。
論文 参考訳(メタデータ) (2023-08-25T13:52:57Z) - FLASK: Fine-grained Language Model Evaluation based on Alignment Skill Sets [69.91340332545094]
FLASKは、人間に基づく評価とモデルに基づく評価の両方のためのきめ細かい評価プロトコルである。
モデル性能の全体像を得るためには,評価の微粒化が重要であることを実験的に観察する。
論文 参考訳(メタデータ) (2023-07-20T14:56:35Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Neural Keyphrase Generation: Analysis and Evaluation [47.004575377472285]
本稿では,T5(事前学習型トランスフォーマー),CatSeq-Transformer(非事前学習型トランスフォーマー),ExHiRD(リカレントニューラルネットワーク)の3つの強力なモデルで示される傾向について検討する。
2つのキーフレーズの類似性を評価するために,SoftKeyScoreという新しいメトリクスフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-27T00:10:21Z) - KPEval: Towards Fine-Grained Semantic-Based Keyphrase Evaluation [69.57018875757622]
KPEvalは、参照合意、忠実性、多様性、有用性という4つの重要な側面からなる総合的な評価フレームワークである。
KPEvalを用いて、23のキーフレーズシステムを再評価し、確立されたモデル比較結果に盲点があることを発見した。
論文 参考訳(メタデータ) (2023-03-27T17:45:38Z) - Language Models in the Loop: Incorporating Prompting into Weak
Supervision [11.10422546502386]
本稿では,ラベル付きトレーニングデータに制限がある場合に,大規模事前学習言語モデルを新しいタスクに適用するための新しい戦略を提案する。
典型的にゼロショットや少数ショットの方法でモデルを適用する代わりに、弱い監督フレームワークにおける関数のラベル付けの基盤としてモデルを扱います。
論文 参考訳(メタデータ) (2022-05-04T20:42:40Z) - Pointwise Paraphrase Appraisal is Potentially Problematic [21.06607915149245]
本研究では,2つの文を1つのシーケンスでペア化することにより,文のパラフレーズ識別のための細調整BERTの標準的な手法が,最先端性能のモデルとなることを示す。
また、これらのモデルでは、一対の同一文よりも高いパラフレーズスコアを持つランダム選択文を予測できることを示した。
論文 参考訳(メタデータ) (2020-05-25T09:27:31Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。