論文の概要: Using large language models to produce literature reviews: Usages and systematic biases of microphysics parametrizations in 2699 publications
- arxiv url: http://arxiv.org/abs/2503.21352v1
- Date: Thu, 27 Mar 2025 10:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:51:32.543920
- Title: Using large language models to produce literature reviews: Usages and systematic biases of microphysics parametrizations in 2699 publications
- Title(参考訳): 大規模言語モデルによる文献レビューの作成--2699年の論文におけるミクロ物理パラメトリゼーションの利用と体系的バイアス-
- Authors: Tianhang Zhang, Shengnan Fu, David M. Schultz, Zhonghua Zheng,
- Abstract要約: 気象・研究予測モデルにおけるミクロ物理パラメトリゼーションに関連する2699の出版物に関する文献レビューを,大規模言語モデルを用いて構築する方法について述べる。
このデータベースは、Web of ScienceとScopus検索から特定された出版物で構成されている。
- 参考スコア(独自算出の注目度): 0.08571111167616165
- License:
- Abstract: Large language models afford opportunities for using computers for intensive tasks, realizing research opportunities that have not been considered before. One such opportunity could be a systematic interrogation of the scientific literature. Here, we show how a large language model can be used to construct a literature review of 2699 publications associated with microphysics parametrizations in the Weather and Research Forecasting (WRF) model, with the goal of learning how they were used and their systematic biases, when simulating precipitation. The database was constructed of publications identified from Web of Science and Scopus searches. The large language model GPT-4 Turbo was used to extract information about model configurations and performance from the text of 2699 publications. Our results reveal the landscape of how nine of the most popular microphysics parameterizations have been used around the world: Lin, Ferrier, WRF Single-Moment, Goddard Cumulus Ensemble, Morrison, Thompson, and WRF Double-Moment. More studies used one-moment parameterizations before 2020 and two-moment parameterizations after 2020. Seven out of nine parameterizations tended to overestimate precipitation. However, systematic biases of parameterizations differed in various regions. Except simulations using the Lin, Ferrier, and Goddard parameterizations that tended to underestimate precipitation over almost all locations, the remaining six parameterizations tended to overestimate, particularly over China, southeast Asia, western United States, and central Africa. This method could be used by other researchers to help understand how the increasingly massive body of scientific literature can be harnessed through the power of artificial intelligence to solve their research problems.
- Abstract(参考訳): 大規模な言語モデルは、コンピュータを集中的なタスクに使用する機会を与え、これまで考えられていなかった研究機会を実現する。
そのような機会の1つは、科学文献の体系的な尋問である可能性がある。
本稿では,気象・研究予測(WRF)モデルにおける微小物理パラメトリゼーションに関連する2699の出版物について,降水シミュレーションにおいて,その使用方法と体系的バイアスを学習することを目的として,大規模言語モデルを用いて文献レビューを構築する方法について述べる。
このデータベースは、Web of ScienceとScopus検索から特定された出版物で構成されている。
大規模言語モデル GPT-4 Turbo は2699の出版物のテキストからモデル構成や性能に関する情報を抽出するために使用された。
この結果から、Lin, Ferrier, WRF Single-Moment, Goddard Cumulus Ensemble, Morrison, Thompson, WRF Double-Momentの9つのマイクロフィジカルパラメーターが世界中で使われていることが判明した。
さらなる研究では、2020年以前の1モーメントパラメータ化と、2020年以降の2モーメントパラメータ化が使用されている。
9つのパラメーター化のうち7つは過大評価される傾向にあった。
しかし,パラメータ化の体系的バイアスは地域によって異なる。
リン, フェリア, ゴダードのパラメーター化は, ほぼすべての地域で降水量の過小評価の傾向を示したが, 残りの6つのパラメーター化は特に中国, 東南アジア, アメリカ西部, アフリカ中部で過大評価される傾向にあった。
この手法を他の研究者が利用すれば、人工知能の力によって科学文献の膨大な部分がどのように活用され、彼らの研究課題が解決されるのかを理解することができる。
関連論文リスト
- Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field [0.0]
本稿では,異なる研究トピック間の意味的関係を識別する大規模モデルの能力について分析する。
我々はそのタスクを評価するためにIEEE Thesaurusに基づく金の標準を開発した。
Mixtral-8x7B、Dolphin-Mistral、Claude 3-7Bなど、いくつかの優れた結果が得られた。
論文 参考訳(メタデータ) (2024-12-11T10:11:41Z) - Explaining Datasets in Words: Statistical Models with Natural Language Parameters [66.69456696878842]
本稿では, クラスタリング, 時系列, 分類モデルなど, 自然言語の述語によってパラメータ化される統計モデル群を紹介する。
当社のフレームワークは、ユーザチャット対話の分類、時間の経過とともにどのように進化するかの特徴付け、一方の言語モデルが他方よりも優れているカテゴリを見つけることなど、幅広い問題に適用しています。
論文 参考訳(メタデータ) (2024-09-13T01:40:20Z) - SciRIFF: A Resource to Enhance Language Model Instruction-Following over Scientific Literature [80.49349719239584]
SciRIFF(Scientific Resource for Instruction-Following and Finetuning, SciRIFF)は、54のタスクに対して137Kの命令追従デモのデータセットである。
SciRIFFは、幅広い科学分野の研究文献から情報を抽出し、合成することに焦点を当てた最初のデータセットである。
論文 参考訳(メタデータ) (2024-06-10T21:22:08Z) - ClimateGPT: Towards AI Synthesizing Interdisciplinary Research on
Climate Change [21.827936253363603]
本稿では,気候変動に関する学際的な研究を合成するドメイン固有大規模言語モデルのモデルファミリーであるClimateGPTを紹介する。
科学指向の300Bトークンデータセットを用いて,スクラッチから2つの7Bモデルをトレーニングした。
気候GPT-7B、13B、70Bは、Llama2から4.2Bトークンのドメイン固有のデータセットで継続的に事前訓練される。
論文 参考訳(メタデータ) (2024-01-17T23:29:46Z) - Reimagining Retrieval Augmented Language Models for Answering Queries [23.373952699385427]
本稿では,大規模言語モデルに対する現実性チェックと,比較対象言語モデル検索の可能性を検証する。
このような言語モデルは半パラメトリックであり、モデルがモデルパラメータと外部データソースからの知識を統合して予測を行う。
論文 参考訳(メタデータ) (2023-06-01T18:08:51Z) - Achieving Occam's Razor: Deep Learning for Optimal Model Reduction [0.07499722271664146]
オッカムのカミソリは、良いモデルは、表現するシステムを記述するのに必要な最小限のパラメータ以外のパラメータを除外すべきである、という原則を指している。
これは、冗長性がデータからモデルパラメータの誤った推定を導き、したがって不正確なあるいは曖昧な結論をもたらすためである。
我々は,Occamのカミソリに対処するために,ディープラーニングがいかに強力に活用できるかを示す。
論文 参考訳(メタデータ) (2023-03-24T01:58:58Z) - Knowledge-in-Context: Towards Knowledgeable Semi-Parametric Language
Models [58.42146641102329]
我々は、新しい半パラメトリック言語モデルアーキテクチャ、Knowledge-in-Context(KiC)を開発した。
KiCは知識豊富な外部メモリを備えたパラメトリックテキスト-テキスト言語モデルを提供する。
知識豊富なセミパラメトリック言語モデルとして、KiCは、目に見えないタスクにおいて優れたゼロショットパフォーマンスを達成するために、はるかに小さな部分しか必要としない。
論文 参考訳(メタデータ) (2022-10-28T23:18:43Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - On the Sparsity of Neural Machine Translation Models [65.49762428553345]
性能向上のために冗長パラメータを再利用できるかどうかを検討する。
実験と分析は異なるデータセットとNTTアーキテクチャで体系的に行われる。
論文 参考訳(メタデータ) (2020-10-06T11:47:20Z) - Bayesian Neural Networks for Fast SUSY Predictions [58.720142291102135]
本稿では,機械学習を用いて,BSM理論のパラメータ空間から予測へのマッピングをモデル化する。
3つの量はすべて平均パーセントの誤差3.34%以下でモデル化され、結果が導出される超対称性符号よりもはるかに短い時間でモデル化される。
結果は、機械学習がBSM理論の高次元空間から予測へのマッピングを正確にモデル化する可能性のさらなる実証である。
論文 参考訳(メタデータ) (2020-07-09T01:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。