論文の概要: Book Success Prediction with Pretrained Sentence Embeddings and
Readability Scores
- arxiv url: http://arxiv.org/abs/2007.11073v2
- Date: Tue, 5 Oct 2021 16:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:05:00.354392
- Title: Book Success Prediction with Pretrained Sentence Embeddings and
Readability Scores
- Title(参考訳): 事前学習文埋め込みと可読性スコアによる書籍成功予測
- Authors: Muhammad Khalifa and Aminul Islam
- Abstract要約: 本論文では,事前学習文の埋め込みと各種可読性スコアを併用した本の成功予測モデルを提案する。
提案手法は, 最大6.4%のF1スコアポイントで, 高いベースラインを達成できる。
- 参考スコア(独自算出の注目度): 8.37609145576126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the potential success of a book in advance is vital in many
applications. This could help both publishers and readers in their
decision-making process whether or not a book is worth publishing and reading,
respectively. In this paper, we propose a model that leverages pretrained
sentence embeddings along with various readability scores for book success
prediction. Unlike previous methods, the proposed method requires no
count-based, lexical, or syntactic features. Instead, we use a convolutional
neural network over pretrained sentence embeddings and leverage different
readability scores through a simple concatenation operation. Our proposed model
outperforms strong baselines for this task by as large as 6.4\% F1-score
points. Moreover, our experiments show that according to our model, only the
first 1K sentences are good enough to predict the potential success of books.
- Abstract(参考訳): 書籍の成功を事前に予測することは、多くのアプリケーションにおいて不可欠である。
これは出版社と読者の両方が、本の出版価値と読む価値があるかどうかを判断するのに役立つだろう。
本稿では,事前学習文の埋め込みと,書籍成功予測のための可読性スコアを併用したモデルを提案する。
従来の手法とは異なり、提案手法はカウントベース、語彙的、構文的特徴を必要としない。
代わりに、事前訓練された文の埋め込みに畳み込みニューラルネットワークを使用し、単純な連結操作によって異なる可読性スコアを利用する。
提案モデルは,このタスクの強力なベースラインを最大6.4\%f1-scoreポイントで上回っている。
さらに,本実験の結果から,本書の成功を予測するには,最初の1K文だけで十分であることがわかった。
関連論文リスト
- Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Faster Language Models with Better Multi-Token Prediction Using Tensor Decomposition [5.575078692353885]
本稿では, 精度を損なうことなくサンプリング効率を向上させることを目的とした, 変圧器のマルチトークン予測のための新しいモデルを提案する。
階数=r$標準確率分解に一般化することにより、複数のトークンを同時に予測する改良されたモデルを開発する。
論文 参考訳(メタデータ) (2024-10-23T11:06:36Z) - Using Full-Text Content to Characterize and Identify Best Seller Books [0.6442904501384817]
文学作品の観点から、本がベストセラーになるかどうかを予測するという課題を考察する。
従来のアプローチとは違って,書籍の全内容に焦点を合わせ,可視化と分類作業を検討した。
以上の結果から,本文の全内容のみを用いて,精度の高い書籍の成功を予測することは不可能であることが示唆された。
論文 参考訳(メタデータ) (2022-10-05T15:40:25Z) - Checklist Models for Improved Output Fluency in Piano Fingering
Prediction [33.52847881359949]
ピアノ音楽の指先予測のための新しい手法を提案する。
我々は、近年の予測の表現を維持する強化学習を通じて訓練されたチェックリストシステムを提案する。
これらの指標に対する改善に直接寄与する性能の顕著な向上を示す。
論文 参考訳(メタデータ) (2022-09-12T21:27:52Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - A framework for predicting, interpreting, and improving Learning
Outcomes [0.0]
本研究では,学生の観察的,行動的,受験的特徴に基づいて,テストスコアを予測するEmbibe Score Quotient Model(ESQ)を開発した。
ESQは、学生の将来的な採点可能性の予測や、個別の学習ナッジの提供に使用することができる。
論文 参考訳(メタデータ) (2020-10-06T11:22:27Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。