論文の概要: NLLG Quarterly arXiv Report 06/23: What are the most influential current
AI Papers?
- arxiv url: http://arxiv.org/abs/2308.04889v1
- Date: Mon, 31 Jul 2023 11:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:21:35.827209
- Title: NLLG Quarterly arXiv Report 06/23: What are the most influential current
AI Papers?
- Title(参考訳): NLLG Quarterly arXiv Report 06/23: 現在最も影響力のあるAIペーパーは何ですか?
- Authors: Steffen Eger and Christoph Leiter and Jonas Belouadi and Ran Zhang and
Aida Kostikova and Daniil Larionov and Yanran Chen and Vivian Fresen
- Abstract要約: 目的は、最も関連性があり広く議論されている研究のクイックガイドを提供することであり、新参者や確立された研究者が現在の傾向を振り返り続けるのを助けることである。
我々は2023年前半に,大規模言語モデル(LLM),特にChatGPTに関連する論文の優位性を観察した。
NLP関連の論文は、私たちのデータにはML関連の論文の2倍の数の論文があるにもかかわらず、最も影響力がある(トップ論文の約60%)。
- 参考スコア(独自算出の注目度): 15.830129136642755
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid growth of information in the field of Generative Artificial
Intelligence (AI), particularly in the subfields of Natural Language Processing
(NLP) and Machine Learning (ML), presents a significant challenge for
researchers and practitioners to keep pace with the latest developments. To
address the problem of information overload, this report by the Natural
Language Learning Group at Bielefeld University focuses on identifying the most
popular papers on arXiv, with a specific emphasis on NLP and ML. The objective
is to offer a quick guide to the most relevant and widely discussed research,
aiding both newcomers and established researchers in staying abreast of current
trends. In particular, we compile a list of the 40 most popular papers based on
normalized citation counts from the first half of 2023. We observe the
dominance of papers related to Large Language Models (LLMs) and specifically
ChatGPT during the first half of 2023, with the latter showing signs of
declining popularity more recently, however. Further, NLP related papers are
the most influential (around 60\% of top papers) even though there are twice as
many ML related papers in our data. Core issues investigated in the most
heavily cited papers are: LLM efficiency, evaluation techniques, ethical
considerations, embodied agents, and problem-solving with LLMs. Additionally,
we examine the characteristics of top papers in comparison to others outside
the top-40 list (noticing the top paper's focus on LLM related issues and
higher number of co-authors) and analyze the citation distributions in our
dataset, among others.
- Abstract(参考訳): 特に自然言語処理(nlp)と機械学習(ml)のサブフィールドにおいて、生成型人工知能(ai)の分野における情報の急速な成長は、研究者や実践者が最新の開発に追随し続けるための大きな課題となっている。
情報過負荷の問題に対処するため,ビレフェルト大学の自然言語学習グループによる本報告では,NLPとMLに特に重点を置いて,arXivに関する最も人気のある論文の特定に重点を置いている。
目的は、最も関連性があり広く議論されている研究のクイックガイドを提供することであり、新参者や確立された研究者が現在の傾向を振り返り続けるのを助けることである。
特に、2023年前半の正規化引用数に基づいて、最も人気のある40の論文のリストをまとめる。
しかし,2023年前半には,大規模言語モデル(LLM),特にChatGPTに関する論文が優勢であり,後者は近年の流行の兆候を示している。
さらに、nlp関連論文は、データにml関連論文が2倍あるにもかかわらず、最も影響力のある論文(上位論文の約60%)である。
LLMの効率性、評価手法、倫理的考察、具体化剤、LLMによる問題解決などである。
さらに,トップ40リスト外(llm関連問題へのトップペーパーの注力と共著者数の増加に注目した)と比較して上位論文の特性を調べ,データセット内の引用分布を解析した。
関連論文リスト
- LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - RelevAI-Reviewer: A Benchmark on AI Reviewers for Survey Paper Relevance [0.8089605035945486]
本稿では,調査論文レビューの課題を分類問題として概念化するシステムであるRelevAI-Reviewerを提案する。
25,164のインスタンスからなる新しいデータセットを導入する。各インスタンスには1つのプロンプトと4つの候補論文があり、それぞれがプロンプトに関連している。
我々は,各論文の関連性を判断し,最も関連性の高い論文を識別できる機械学習(ML)モデルを開発した。
論文 参考訳(メタデータ) (2024-06-13T06:42:32Z) - REASONS: A benchmark for REtrieval and Automated citationS Of scieNtific Sentences using Public and Proprietary LLMs [41.64918533152914]
本研究では,大言語モデル(LLM)が2種類の文クエリに基づいて参照を生成することができるかどうかを検討する。
約20万件の研究論文から, 公立及びプロプライエタリなLCMについて, 以下を引用する。
本研究は,自動引用生成タスクにおけるRAGの信頼性に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-05-03T16:38:51Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Position: AI/ML Influencers Have a Place in the Academic Process [82.2069685579588]
機械学習研究の可視性向上におけるソーシャルメディアインフルエンサーの役割について検討する。
2018年12月から2023年10月までの間に、8000以上の論文の包括的なデータセットを収集しました。
我々の統計的および因果推論分析は、これらのインフルエンサーが支持する論文の引用が著しく増加することを示している。
論文 参考訳(メタデータ) (2024-01-24T20:05:49Z) - NLLG Quarterly arXiv Report 09/23: What are the most influential current
AI Papers? [21.68589129842815]
米国はトップ40紙とトップ9k紙の両方で支配的であり、その後中国が続いた。
欧州は明らかに遅れており、最も引用された論文のトップ40にはほとんど掲載されていない。
米国の産業は、最も影響力のある40の論文で大半が誇張されている。
論文 参考訳(メタデータ) (2023-12-09T21:42:20Z) - L-Eval: Instituting Standardized Evaluation for Long Context Language
Models [91.05820785008527]
長い文脈言語モデル(LCLM)のより標準化された評価を行うためにL-Evalを提案する。
20のサブタスク、508の長いドキュメント、2000以上の人間ラベルのクエリ応答対を含む新しい評価スイートを構築した。
その結果、一般的なn-gramマッチングの指標は人間の判断とよく相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:59:41Z) - Forgotten Knowledge: Examining the Citational Amnesia in NLP [63.13508571014673]
論文を引用するのにどれくらいの時間がかかったのか、どのようにして変化したのか、そしてこの引用的注意/記憶に相関する要因は何か。
引用論文の約62%が出版直前の5年間のものであり,約17%が10年以上前のものであることを示す。
1990年から2014年にかけて、引用論文の中央値と年齢の多様性は着実に増加してきたが、その後傾向が逆転し、現在のNLP論文は、時間的引用の多様性が極端に低い。
論文 参考訳(メタデータ) (2023-05-29T18:30:34Z) - Did AI get more negative recently? [17.610382230820395]
我々は、自然言語処理(NLP)と機械学習(ML)の分野における科学論文を、人工知能(AI)のコアサブフィールドとして分類する。
我々は、(i)の貢献を「肯定的姿勢」、(ii)の貢献を「否定的姿勢」とする。
我々は,NLPおよびMLにおける過去35年間の41k以上の論文の大規模傾向を分析し,論文は時間とともに著しく肯定的になったが,否定的な論文もさらに否定的になり,近年ではかなり否定的な論文が観察されている。
論文 参考訳(メタデータ) (2022-02-28T08:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。