論文の概要: Can Large Language Models Learn the Physics of Metamaterials? An Empirical Study with ChatGPT
- arxiv url: http://arxiv.org/abs/2404.15458v1
- Date: Tue, 23 Apr 2024 19:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 15:23:04.513196
- Title: Can Large Language Models Learn the Physics of Metamaterials? An Empirical Study with ChatGPT
- Title(参考訳): メタマテリアルの物理を学習できる言語モデル : ChatGPTを用いた実証的研究
- Authors: Darui Lu, Yang Deng, Jordan M. Malof, Willie J. Padilla,
- Abstract要約: ChatGPT、Gemini、LlaMa、Claudeといった大規模言語モデル(LLM)は、インターネットから解析された大量のテキストに基づいて訓練されている。
テキストプロンプトが与えられた範囲の周波数で電磁スペクトルを予測できる最大4万データに基づいて微調整されたLLMを提案する。
- 参考スコア(独自算出の注目度): 9.177651206337005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) such as ChatGPT, Gemini, LlaMa, and Claude are trained on massive quantities of text parsed from the internet and have shown a remarkable ability to respond to complex prompts in a manner often indistinguishable from humans. We present a LLM fine-tuned on up to 40,000 data that can predict electromagnetic spectra over a range of frequencies given a text prompt that only specifies the metasurface geometry. Results are compared to conventional machine learning approaches including feed-forward neural networks, random forest, linear regression, and K-nearest neighbor (KNN). Remarkably, the fine-tuned LLM (FT-LLM) achieves a lower error across all dataset sizes explored compared to all machine learning approaches including a deep neural network. We also demonstrate the LLM's ability to solve inverse problems by providing the geometry necessary to achieve a desired spectrum. LLMs possess some advantages over humans that may give them benefits for research, including the ability to process enormous amounts of data, find hidden patterns in data, and operate in higher-dimensional spaces. We propose that fine-tuning LLMs on large datasets specific to a field allows them to grasp the nuances of that domain, making them valuable tools for research and analysis.
- Abstract(参考訳): ChatGPT、Gemini、LlaMa、Claudeといった大規模な言語モデル(LLM)は、インターネットから解析された大量のテキストに基づいて訓練されており、人間と区別できない方法で複雑なプロンプトに応答する驚くべき能力を示している。
テキストプロンプトが変地幾何学のみを指定した場合に、最大4万データに対して微調整を行い、電磁スペクトルを様々な周波数で予測する。
結果は、フィードフォワードニューラルネットワーク、ランダムフォレスト、線形回帰、K-nearest neighbor(KNN)といった従来の機械学習手法と比較される。
注目すべきなのは、細調整されたLLM(FT-LLM)は、ディープニューラルネットワークを含むすべての機械学習アプローチと比較して、調査対象のデータセットサイズ全体のエラーが低いことだ。
また、所望のスペクトルを得るのに必要な幾何を提供することで、逆問題を解決するLLMの能力を実証する。
LLMには、膨大な量のデータを処理し、データの中に隠れたパターンを見つけ、高次元空間で操作する能力など、研究に利益をもたらすような、人間に対していくつかの利点がある。
フィールド固有の大規模データセット上での微調整 LLM は,その領域のニュアンスを把握し,研究や分析に有用なツールとなることを提案する。
関連論文リスト
- Scaling Large Vision-Language Models for Enhanced Multimodal Comprehension In Biomedical Image Analysis [0.1984949535188529]
ビジョン言語モデル(VLM)は、画像処理のための事前訓練されたビジョンバックボーンと、クロスモーダルプロジェクタを組み込むことによって、この問題に対処する。
低線量放射線治療におけるマルチモーダル理解を高めるため,LLaVAモデルから微調整されたインテリジェントアシスタントを開発した。
論文 参考訳(メタデータ) (2025-01-26T02:48:01Z) - The Performance of the LSTM-based Code Generated by Large Language Models (LLMs) in Forecasting Time Series Data [0.3749861135832072]
本稿では,ChatGPT, PaLM, LLama, FalconなどのLLMの時系列データ解析のためのディープラーニングモデルの生成における性能について検討し, 比較する。
その結果は、生成的AIを活用して、許容できる良さで優れた予測モデルを作成したいデータアナリストや実践者にとって有益である。
論文 参考訳(メタデータ) (2024-11-27T20:18:36Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation [0.0]
大規模言語モデル(LLM)は本質的に長期記憶を欠いているため、ドメイン固有の文献やデータに基づいてそれらを微調整する非自明でアドホックで必然的にバイアスのあるタスクである。
本稿では、階層的推論・実行(RAG)エージェントのフレームワークであるLLaMPを紹介し、計算および実験データと相互作用できる。
微調整なしでは、LLaMPは材料科学の概念の様々なモダリティを理解し統合する強力なツール利用能力を示す。
論文 参考訳(メタデータ) (2024-01-30T18:37:45Z) - Learning Universal Predictors [23.18743879588599]
メタラーニングを限界まで活用することで、最も強力な普遍的予測子であるソロモノフ誘導(SI)をニューラルネットワークに記憶させる可能性を探る。
我々はUniversal Turing Machines (UTM) を用いて、幅広いパターンにネットワークを公開するトレーニングデータを生成する。
この結果から,UTMデータはメタラーニングに有用な資源であり,普遍的な予測戦略を学習可能なニューラルネットワークのトレーニングに有効であることが示唆された。
論文 参考訳(メタデータ) (2024-01-26T15:37:16Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Graph Neural Prompting with Large Language Models [32.97391910476073]
Graph Neural Prompting (GNP)は、知識グラフから有益な知識を学ぶために、事前訓練された言語モデルを支援するための新しいプラグアンドプレイ方式である。
複数のデータセットに対する大規模な実験は、常識的および生物医学的推論タスクにおいて、GNPの優位性を示す。
論文 参考訳(メタデータ) (2023-09-27T06:33:29Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。