論文の概要: The Rapid Growth of AI Foundation Model Usage in Science
- arxiv url: http://arxiv.org/abs/2511.21739v1
- Date: Fri, 21 Nov 2025 19:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.191639
- Title: The Rapid Growth of AI Foundation Model Usage in Science
- Title(参考訳): 科学におけるAIファンデーションモデル利用の急速な成長
- Authors: Ana Trišović, Alex Fogelson, Janakan Sivaloganathan, Neil Thompson,
- Abstract要約: ビジョンモデルは科学において最も使われている基礎モデルであるが、言語モデルのシェアは増加している。
2013年に建設された基礎モデルの中央値は科学で採用されている中央値の7.7倍であり、2024年までに26倍に増加した。
- 参考スコア(独自算出の注目度): 1.5310544133856583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first large-scale analysis of AI foundation model usage in science - not just citations or keywords. We find that adoption has grown rapidly, at nearly-exponential rates, with the highest uptake in Linguistics, Computer Science, and Engineering. Vision models are the most used foundation models in science, although language models' share is growing. Open-weight models dominate. As AI builders increase the parameter counts of their models, scientists have followed suit but at a much slower rate: in 2013, the median foundation model built was 7.7x larger than the median one adopted in science, by 2024 this had jumped to 26x. We also present suggestive evidence that scientists' use of these smaller models may be limiting them from getting the full benefits of AI-enabled science, as papers that use larger models appear in higher-impact journals and accrue more citations.
- Abstract(参考訳): 我々は、引用やキーワードだけでなく、科学におけるAIファンデーションモデルの使用に関する最初の大規模分析を提示する。
私たちは、言語学、コンピュータサイエンス、エンジニアリングにおいて、採用が急速に増加し、ほぼ排他的な速度で進んでいることに気付きました。
ビジョンモデルは科学において最も使われている基礎モデルであるが、言語モデルのシェアは増加している。
オープンウェイトモデルが優位である。
AIビルダーがモデルのパラメータ数を増やそうとすると、科学者はそれに追随するが、より遅い速度で、2013年に構築された中央の基盤モデルは、科学で採用されている中央のモデルよりも7.7倍大きく、2024年までに26倍に上昇した。
また、より大規模なモデルを使用する論文がよりインパクトのある雑誌に掲載され、より多くの引用が得られたため、これらの小さなモデルを使用することがAI可能な科学の恩恵を完全に得ることを制限している可能性があるという示唆的な証拠も提示する。
関連論文リスト
- Opportunities and challenges in the application of large artificial intelligence models in radiology [4.543169454051341]
細分化領域におけるより大規模なモデルが徐々に提案され、特に放射線画像分野における大きなモデルが提案されている。
本稿ではまず,大規模モデルの開発史,技術詳細,ワークフロー,マルチモーダル大規模モデルの動作原理,ビデオ生成大型モデルの動作原理について紹介する。
論文 参考訳(メタデータ) (2024-03-24T12:05:23Z) - Advancing State of the Art in Language Modeling [0.0]
一般化は統計言語モデリング研究の最も重要な目標であることは間違いない。
オープンソースコードで公開された公開ベンチマークと論文は、この分野を前進させる上で重要なものだ。
本稿では,一般化の観点から言語モデリングにおける最先端技術を支援するための,シンプルなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-28T12:30:43Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Large AI Models in Health Informatics: Applications, Challenges, and the
Future [31.66920436409032]
大規模なAIモデル、あるいは基礎モデル(ファウンデーションモデル)は、パラメータワイドとデータワイドの両方で大規模に出現するモデルである。
ChatGPTは、大きなAIモデルが持つ影響に対する人々の想像力を押し付けました。
健康情報学において、大規模AIモデルの出現は方法論の設計に新たなパラダイムをもたらした。
論文 参考訳(メタデータ) (2023-03-21T03:28:33Z) - I2D2: Inductive Knowledge Distillation with NeuroLogic and
Self-Imitation [89.38161262164586]
本稿では,ジェネリック生成の課題に着目し,コモンセンス知識の生成モデルについて検討する。
我々は,西欧の記号的知識蒸留を緩やかに追従する新しいコモンセンス蒸留フレームワークであるI2D2を紹介する。
我々の研究はジェネリックの新たなコーパス、Gen-A-tomicに繋がる。
論文 参考訳(メタデータ) (2022-12-19T04:47:49Z) - What Language Model to Train if You Have One Million GPU Hours? [54.32062236748831]
モデリングの実践の違いがゼロショット一般化に与える影響について検討する。
また、多言語モデルの性能と、英語のみとの比較についても検討する。
私たちのモデルとコードは、https://huggingface.co/bigscience.comでオープンソース化されています。
論文 参考訳(メタデータ) (2022-10-27T13:43:27Z) - Predicting on the Edge: Identifying Where a Larger Model Does Better [61.793778186198864]
小型モデルが最も不確実な例では,大規模モデルが最も改善されていることを示す。
小型モデルが不確実な場合,サンプルを大モデルにデフェクトするスイッチャーモデルにより,性能と資源利用の大幅な向上が達成できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:53:14Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。