論文の概要: SimLM: Can Language Models Infer Parameters of Physical Systems?
- arxiv url: http://arxiv.org/abs/2312.14215v1
- Date: Thu, 21 Dec 2023 12:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 17:09:51.675352
- Title: SimLM: Can Language Models Infer Parameters of Physical Systems?
- Title(参考訳): SimLM: 言語モデルは物理系のパラメータを推測できるか?
- Authors: Sean Memery, Mirella Lapata, Kartic Subr
- Abstract要約: 大規模機械学習モデルの最近の発展は、医学、ロボティクス、科学的発見など、さまざまな分野に影響を与えている。
大規模言語モデル(LLM)は、高度な数学のような特定の種類の問題には適さない。
物理シミュレーションからフィードバックを得てコンテキストを増大させることにより,物理系のパラメーターを再学習することなく予測できることを示す。
- 参考スコア(独自算出の注目度): 56.38608628187024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in large-scale machine learning models for
general-purpose understanding, translation and generation of language are
driving impact across a variety of sectors including medicine, robotics, and
scientific discovery. The strength of such Large Language Models (LLMs) stems
from the large corpora that they are trained with. While this imbues them with
a breadth of capabilities, they have been found unsuitable for some specific
types of problems such as advanced mathematics. In this paper, we highlight the
inability of LLMs to reason about physics tasks. We demonstrate that their
ability to infer parameters of physical systems can be improved, without
retraining, by augmenting their context with feedback from physical simulation.
- Abstract(参考訳): 汎用理解、翻訳、言語生成のための大規模機械学習モデルの開発は、医学、ロボティクス、科学的発見を含む様々な分野に影響を与えている。
このような言語モデル(LLM)の強みは、彼らが訓練している大きなコーパスに由来する。
このことは彼らに幅広い能力を与えるが、高度な数学のような特定の問題には適さないことが判明している。
本稿では,LLMが物理タスクを推論できないことを強調する。
物理シミュレーションからフィードバックを得てコンテキストを増大させることにより,物理系のパラメータを再学習することなく推論できることを示す。
関連論文リスト
- LLMPhy: Complex Physical Reasoning Using Large Language Models and World Models [35.01842161084472]
そこで我々は,TraySimという物理推論タスクとデータセットを提案する。
私たちのタスクは、外部の影響を受けるトレイ上のいくつかのオブジェクトのダイナミクスを予測することです。
LLMの物理知識とプログラム合成能力を活用するゼロショットブラックボックス最適化フレームワークであるLLMPhyを提案する。
この結果から,LLMと物理エンジンの組み合わせにより,最先端のゼロショット物理推論性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-11-12T18:56:58Z) - Embed and Emulate: Contrastive representations for simulation-based inference [11.543221890134399]
本稿では,新しいシミュレーションベース推論(SBI)手法であるEmbed and Emulate(E&E)を紹介する。
E&Eはデータと対応する高速エミュレータの低次元潜伏埋め込みを潜伏空間に学習する。
本研究では,現実的なパラメータ推定タスクにおいて,既存の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-27T02:37:01Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - HARGPT: Are LLMs Zero-Shot Human Activity Recognizers? [9.414529772034985]
我々は,Large Language Models (LLM) が生のIMUデータを理解し,ゼロショットで人間の活動認識タスクを実行できることを示す。
我々は、GPT4上のHARGPTを、クラス間の類似性の異なる2つの公開データセットを用いてベンチマークし、従来の機械学習と最先端の深い分類モデルの両方に基づいて、様々なベースラインを比較した。
注目すべきは、LLMは生のIMUデータから人間の活動を認識し、両方のデータセットのベースラインを一貫して上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T07:34:51Z) - Interpretable Meta-Learning of Physical Systems [4.343110120255532]
最近のメタラーニング手法はブラックボックスニューラルネットワークに依存しており、計算コストが高く、解釈可能性も限られている。
我々は,学習課題に対するアフィン構造を持つ,より単純な学習モデルを用いて,マルチ環境の一般化を実現することができると論じる。
本稿では,物理系の最先端アルゴリズムと比較することにより,競合一般化性能と計算コストの低さを実証する。
論文 参考訳(メタデータ) (2023-12-01T10:18:50Z) - Explaining Emergent In-Context Learning as Kernel Regression [61.57151500616111]
大規模言語モデル(LLM)は、伝達学習のパラダイムシフトを開始した。
本稿では,トランスフォーマーに基づく言語モデルが事前学習後に文脈内学習を達成できる理由について検討する。
ICL中、LLMの注意と隠れた特徴は、カーネル回帰の挙動と一致していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T06:45:02Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - An Extensible Benchmark Suite for Learning to Simulate Physical Systems [60.249111272844374]
我々は、統一されたベンチマークと評価プロトコルへの一歩を踏み出すために、一連のベンチマーク問題を導入する。
本稿では,4つの物理系と,広く使用されている古典的時間ベースおよび代表的なデータ駆動手法のコレクションを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:39:09Z) - Learning to Simulate Complex Physics with Graph Networks [68.43901833812448]
本稿では,機械学習のフレームワークとモデルの実装について紹介する。
グラフネットワーク・ベース・シミュレータ(GNS)と呼ばれる我々のフレームワークは、グラフ内のノードとして表現された粒子で物理系の状態を表現し、学習されたメッセージパスによって動的を計算します。
我々のモデルは,訓練中に数千の粒子による1段階の予測から,異なる初期条件,数千の時間ステップ,少なくとも1桁以上の粒子をテスト時に一般化できることを示す。
論文 参考訳(メタデータ) (2020-02-21T16:44:28Z) - Operationally meaningful representations of physical systems in neural
networks [4.192302677744796]
本稿では、物理的システムの異なる側面を扱うエージェントが、相互に可能な限り効率的に関連情報を伝達できるように設計されたニューラルネットワークアーキテクチャを提案する。
これは、異なる実験環境で物理システムに関するステートメントを作成するのに役立つ異なるパラメータを分離する表現を生成する。
論文 参考訳(メタデータ) (2020-01-02T19:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。