論文の概要: "All You Need" is Not All You Need for a Paper Title: On the Origins of a Scientific Meme
- arxiv url: http://arxiv.org/abs/2512.19700v1
- Date: Wed, 03 Dec 2025 17:36:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.076926
- Title: "All You Need" is Not All You Need for a Paper Title: On the Origins of a Scientific Meme
- Title(参考訳): 紙のタイトルに必要な「All You Need」:科学ミームの起源について
- Authors: Anton Alyakin,
- Abstract要約: 我々は'All You Need'を含む717のarXivプレプリントをそのタイトルで分析する。
正統的な「X [Is] All You Need」構造に従う論文の中では、「注意」が最も頻繁に主張される(28件)。
我々は、このパターンの成功は、精度よりも記憶可能性の方がますます好まれる科学コミュニケーションにおける競争的な圧力を反映していると主張している。
- 参考スコア(独自算出の注目度): 0.029008108937701324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The 2017 paper ''Attention Is All You Need'' introduced the Transformer architecture-and inadvertently spawned one of machine learning's most persistent naming conventions. We analyze 717 arXiv preprints containing ''All You Need'' in their titles (2009-2025), finding exponential growth ($R^2$ > 0.994) following the original paper, with 200 titles in 2025 alone. Among papers following the canonical ''X [Is] All You Need'' structure, ''Attention'' remains the most frequently claimed necessity (28 occurrences). Situating this phenomenon within memetic theory, we argue the pattern's success reflects competitive pressures in scientific communication that increasingly favor memorability over precision. Whether this trend represents harmless academic whimsy or symptomatic sensationalism, we leave-with appropriate self-awareness-to the reader.
- Abstract(参考訳): 2017年の論文'Attention Is All You Need'では、Transformerアーキテクチャが紹介されている。
我々は,2009-2025年に'All You Need'を含む717のarXivプレプリントを分析し,2025年だけで200タイトルの指数的な成長(R^2$ > 0.994)を見出した。
標準的な「X [Is] All You Need」構造に従う論文の中では、最も頻繁に主張される必要性(28件)は「注意」である。
この現象をメメティクス理論で推定すると、このパターンの成功は、精度よりも記憶可能性を好む科学的コミュニケーションにおける競争的な圧力を反映していると論じる。
この傾向が無害な学術的気まぐれや症状的センセーショナリズムを表すかどうかに関わらず、読者に適切な自己認識をもって去る。
関連論文リスト
- Humanity in the Age of AI: Reassessing 2025's Existential-Risk Narratives [0.0]
我々は、現在進行中の監視資本主義の統合からイデオロギー的な注意をそらすものとして、存在リスク論が主に機能すると主張している。
この仮説は2025年11月に実証された確率よりも投機的金融バブルによって増幅された投機的仮説として残されている。
論文 参考訳(メタデータ) (2025-12-01T19:37:27Z) - Does GenAI Rewrite How We Write? An Empirical Study on Two-Million Preprints [15.070885964897734]
生成型大規模言語モデル(LLM)は、原稿の書き方を変えることによって、さらなる破壊をもたらす可能性がある。
本稿は、2016年から2025年(115ヶ月)にかけての2100万件以上のプレプリントを4つの主要なリポジトリで大規模に分析することで、このギャップを解消する。
以上の結果から,LSMは提出サイクルと修正サイクルを加速し,言語的複雑性が緩やかに増加し,AI関連トピックが不均等に拡大したことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T01:37:40Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Forgotten Knowledge: Examining the Citational Amnesia in NLP [63.13508571014673]
論文を引用するのにどれくらいの時間がかかったのか、どのようにして変化したのか、そしてこの引用的注意/記憶に相関する要因は何か。
引用論文の約62%が出版直前の5年間のものであり,約17%が10年以上前のものであることを示す。
1990年から2014年にかけて、引用論文の中央値と年齢の多様性は着実に増加してきたが、その後傾向が逆転し、現在のNLP論文は、時間的引用の多様性が極端に低い。
論文 参考訳(メタデータ) (2023-05-29T18:30:34Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - On the Existence of the Adversarial Bayes Classifier (Extended Version) [56.71935195968849]
この写本は、NeurIPS 2021で出版された論文『EmphOn the Existence of the Adrial Bayesversa』の拡張と修正版である。
論文 参考訳(メタデータ) (2021-12-03T03:31:08Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z) - ArXiving Before Submission Helps Everyone [38.09600429721343]
我々はarXivingの論文の長所と短所を分析する。
著者以外の人がarXivを選択すべきかどうか判断する理由は何もありません。
論文 参考訳(メタデータ) (2020-10-11T22:26:44Z) - High-Precision Extraction of Emerging Concepts from Scientific
Literature [29.56863792319201]
学術文献の教師なし概念抽出法を提案する。
arXivのコンピュータサイエンス論文のコーパスから、我々の手法は99%の精度@1000を達成することがわかった。
論文 参考訳(メタデータ) (2020-06-11T23:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。