論文の概要: Simplifying Impact Prediction for Scientific Articles
- arxiv url: http://arxiv.org/abs/2012.15192v1
- Date: Wed, 30 Dec 2020 15:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 12:56:22.517267
- Title: Simplifying Impact Prediction for Scientific Articles
- Title(参考訳): 科学論文のインパクト予測の簡易化
- Authors: Thanasis Vergoulis, Ilias Kanellos, Giorgos Giannopoulos, Theodore
Dalamagas
- Abstract要約: 記事の期待される影響を推定することは、さまざまなアプリケーションにとって価値があります。
最小限の記事メタデータを用いてトレーニングできるモデルを提案する。
- 参考スコア(独自算出の注目度): 1.8352113484137624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the expected impact of an article is valuable for various
applications (e.g., article/cooperator recommendation). Most existing
approaches attempt to predict the exact number of citations each article will
receive in the near future, however this is a difficult regression analysis
problem. Moreover, most approaches rely on the existence of rich metadata for
each article, a requirement that cannot be adequately fulfilled for a large
number of them. In this work, we take advantage of the fact that solving a
simpler machine learning problem, that of classifying articles based on their
expected impact, is adequate for many real world applications and we propose a
simplified model that can be trained using minimal article metadata. Finally,
we examine various configurations of this model and evaluate their
effectiveness in solving the aforementioned classification problem.
- Abstract(参考訳): 記事の期待される影響を見積もることは、さまざまなアプリケーション(例えば、記事/コオペレータ推奨)に有用である。
既存のほとんどのアプローチは、各記事が近い将来受ける引用の正確な数を予測しようとするが、これは難しい回帰分析問題である。
さらに、ほとんどのアプローチは、多数の記事に対して適切に満たせない要件である、各記事に対する豊富なメタデータの存在に依存しています。
本研究では,より単純な機械学習問題を解くこと,期待される影響に基づく記事の分類が現実の多くのアプリケーションに十分であるという事実を活用し,最小限の記事メタデータを用いて学習可能な簡易モデルを提案する。
最後に, このモデルの様々な構成について検討し, 上記の分類問題を解く上での有効性を評価する。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - From Words to Worth: Newborn Article Impact Prediction with LLM [69.41680520058418]
本稿は,LLMの微調整機能を活用して,新たな記事の今後の影響を予測する,有望なアプローチを提案する。
LLMを微調整するための包括的なデータセットが構築されリリースされ、対応するタイトル、抽象化、TLCSI_SPを含む12,000以上のエントリが含まれている。
論文 参考訳(メタデータ) (2024-08-07T17:52:02Z) - Scalable Detection of Salient Entities in News Articles [2.5585280660921463]
本研究は, 微調整事前学習型変圧器モデルを用いて, 効率的かつ効果的に有意な実体検出を行うための新しいアプローチについて検討する。
また,それらの精度に影響を与えることなく,これらのモデルの計算コストを効果的に削減するための知識蒸留技術についても検討する。
論文 参考訳(メタデータ) (2024-05-30T20:16:27Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Effective Few-Shot Named Entity Linking by Meta-Learning [34.70028855572534]
本稿では,非自明な合成エンティティ-メント対を生成するための新しい弱監督戦略を提案する。
また,各合成実体対に異なる重みを割り当てるメタ学習機構を設計する。
実世界のデータセットの実験により、提案手法は最先端の少数ショットエンティティリンクモデルを大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-07-12T03:23:02Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。