論文の概要: SimCPSR: Simple Contrastive Learning for Paper Submission Recommendation
System
- arxiv url: http://arxiv.org/abs/2205.05940v1
- Date: Thu, 12 May 2022 08:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:22:48.668947
- Title: SimCPSR: Simple Contrastive Learning for Paper Submission Recommendation
System
- Title(参考訳): SimCPSR:論文提出推薦システムのための簡易コントラスト学習
- Authors: Duc H. Le, Tram T. Doan, Son T. Huynh, and Binh T. Nguyen
- Abstract要約: 本研究では,論文提出推薦システムの効率的な手法としてトランスファーラーニングを用いたトランスフォーマーモデルを提案する。
本質的な情報(タイトル、要約、キーワードのリストなど)をジャーナルの目的とスコープと組み合わせることで、このモデルは論文の受容を最大化するトップK誌を推薦することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recommendation system plays a vital role in many areas, especially
academic fields, to support researchers in submitting and increasing the
acceptance of their work through the conference or journal selection process.
This study proposes a transformer-based model using transfer learning as an
efficient approach for the paper submission recommendation system. By combining
essential information (such as the title, the abstract, and the list of
keywords) with the aims and scopes of journals, the model can recommend the Top
K journals that maximize the acceptance of the paper. Our model had developed
through two states: (i) Fine-tuning the pre-trained language model (LM) with a
simple contrastive learning framework. We utilized a simple supervised
contrastive objective to fine-tune all parameters, encouraging the LM to learn
the document representation effectively. (ii) The fine-tuned LM was then
trained on different combinations of the features for the downstream task. This
study suggests a more advanced method for enhancing the efficiency of the paper
submission recommendation system compared to previous approaches when we
respectively achieve 0.5173, 0.8097, 0.8862, 0.9496 for Top 1, 3, 5, and 10
accuracies on the test set for combining the title, abstract, and keywords as
input features. Incorporating the journals' aims and scopes, our model shows an
exciting result by getting 0.5194, 0.8112, 0.8866, and 0.9496 respective to Top
1, 3, 5, and 10.
- Abstract(参考訳): 多くの分野、特に学術分野においてレコメンデーションシステムは重要な役割を担い、研究者が会議や雑誌の選択プロセスを通じて研究成果を提出し、受け入れられることを支援する。
本研究は,紙提出推薦システムの効率的なアプローチとして,転送学習を用いたトランスベースモデルを提案する。
本質的な情報(タイトル、要約、キーワードのリストなど)をジャーナルの目的とスコープと組み合わせることで、このモデルは論文の受容を最大化するトップK誌を推薦することができる。
私たちのモデルは2つの州で開発されました
i) 単純なコントラスト学習フレームワークを用いて、事前学習言語モデル(LM)を微調整する。
我々は、単純な教師付きコントラスト目的を用いて、すべてのパラメータを微調整し、LMに文書表現を効果的に学習するよう促した。
(ii) 微調整されたlmは、下流タスクの特徴の異なる組み合わせで訓練された。
本研究は,表題,要約,キーワードを入力として組み合わせたテストセットにおいて,それぞれ0.5173,0.8097,0.8862,0.9496をトップ1,3,5,10の精度で達成した場合と比較して,論文提出推薦システムの効率を向上する手法を提案する。
論文の目的と範囲を組み込んだ本モデルは,トップ1,3,5,10に0.5194,0.08112,0.08866,0.09496 をそれぞれ与え,エキサイティングな結果を示す。
関連論文リスト
- FPSRS: A Fusion Approach for Paper Submission Recommendation System [0.0]
本稿では,科学論文を推薦する2つの新しいアプローチを提案する。
最初のアプローチでは、Conv1D以外にもRNN構造を採用している。
また,DistilBertAimsという新しい手法を導入し,大文字小文字と小文字小文字の2例にDistillBertを用いて, Title, Abstract, Keywordsなどの特徴をベクトル化する。
実験の結果、第2のアプローチはパフォーマンスが向上し、62.46%、12.44%が従来の研究よりも高いことがわかった。
論文 参考訳(メタデータ) (2022-05-12T09:06:56Z) - Prompt-based Pre-trained Model for Personality and Interpersonal
Reactivity Prediction [19.288384399961867]
本稿では、LingJingチームによる主観性・感性・ソーシャルメディア分析に関するワークショップ(WASSA)2022におけるパーソナリティ予測(PER)と反応性指標予測(IRI)の共有タスクについて述べる。
論文 参考訳(メタデータ) (2022-03-23T15:22:34Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - SimCLS: A Simple Framework for Contrastive Learning of Abstractive
Summarization [14.16710715347118]
我々は抽象的な要約のための概念的に単純だが経験的に強力なフレームワークSimを提案する。
既存のトップスコアシステムに対して小さな変更を加えることで、Simは既存のトップスコアシステムの性能を大きなマージンで向上させることができる。
提案したモデルの結果はExplainaBoardプラットフォームにデプロイされ、研究者はより詳細な方法でシステムを理解することができる。
論文 参考訳(メタデータ) (2021-06-03T14:34:17Z) - Integrating Semantics and Neighborhood Information with Graph-Driven
Generative Models for Document Retrieval [51.823187647843945]
本稿では,周辺情報をグラフ誘導ガウス分布でエンコードし,その2種類の情報をグラフ駆動生成モデルと統合することを提案する。
この近似の下では、トレーニング対象がシングルトンまたはペアワイズ文書のみを含む用語に分解可能であることを証明し、モデルが非関連文書と同じくらい効率的にトレーニングできることを示す。
論文 参考訳(メタデータ) (2021-05-27T11:29:03Z) - PoBRL: Optimizing Multi-Document Summarization by Blending Reinforcement
Learning Policies [68.8204255655161]
マルチドキュメントの要約を解くための強化学習ベースのフレームワーク PoBRL を提案する。
私たちの戦略は、この多対象最適化を、強化学習によって個別に解決できるさまざまなサブ問題に分離します。
実験結果から,複数のマルチドキュメントデータセットにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2021-05-18T02:55:42Z) - Using Transformer based Ensemble Learning to classify Scientific
Articles [0.0]
科学文献の抽象物を与えられた7つのクラスのうちの1つに分類できる4つの独立したサブシステムから構成される。
これら4つのサブシステムの予測を多数決を用いてアンサンブルし、テストと検証セットでF1スコアが0.93となる最終システムを開発する。
論文 参考訳(メタデータ) (2021-02-19T15:42:26Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。