論文の概要: On Languaging a Simulation Engine
- arxiv url: http://arxiv.org/abs/2402.16482v1
- Date: Mon, 26 Feb 2024 11:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:45:58.485601
- Title: On Languaging a Simulation Engine
- Title(参考訳): シミュレーションエンジンのラングングについて
- Authors: Han Liu, Liantang Li
- Abstract要約: Lang2Simは、シミュレーションエンジンのランゲージング上で対話的なナビゲーションを可能にする言語間シミュレーションフレームワークである。
この研究は、シミュレーションエンジンのランゲージングの時代を解き放つための、インテリジェントなプラットフォームとしての言語モデルを確立する。
- 参考スコア(独自算出の注目度): 6.17566001699186
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Language model intelligence is revolutionizing the way we program materials
simulations. However, the diversity of simulation scenarios renders it
challenging to precisely transform human language into a tailored simulator.
Here, using three functionalized types of language model, we propose a
language-to-simulation (Lang2Sim) framework that enables interactive navigation
on languaging a simulation engine, by taking a scenario instance of water
sorption in porous matrices. Unlike line-by-line coding of a target simulator,
the language models interpret each simulator as an assembly of invariant tool
function and its variant input-output pair. Lang2Sim enables the precise
transform of textual description by functionalizing and sequentializing the
language models of, respectively, rationalizing the tool categorization,
customizing its input-output combinations, and distilling the simulator input
into executable format. Importantly, depending on its functionalized type, each
language model features a distinct processing of chat history to best balance
its memory limit and information completeness, thus leveraging the model
intelligence to unstructured nature of human request. Overall, this work
establishes language model as an intelligent platform to unlock the era of
languaging a simulation engine.
- Abstract(参考訳): 言語モデルインテリジェンスは、材料シミュレーションのプログラミング方法に革命をもたらしています。
しかし、シミュレーションシナリオの多様性は、人間の言語をカスタマイズされたシミュレータに正確に変換することを困難にしている。
本稿では,多孔質行列における水吸収のシナリオを用いて,シミュレーションエンジンを動作させる際の対話型ナビゲーションを実現する言語間シミュレーション(lang2sim)フレームワークを提案する。
対象シミュレータのラインバイライン符号化とは異なり、言語モデルは各シミュレータを不変ツール関数とその変種入出力対のアセンブリとして解釈する。
Lang2Simは、言語モデルの機能化とシーケンシャル化、ツール分類の合理化、入力と出力の組み合わせのカスタマイズ、シミュレータ入力を実行可能なフォーマットに蒸留することで、テキスト記述の正確な変換を可能にする。
重要なことは、その機能化されたタイプによって、各言語モデルは、そのメモリ限界と情報の完全性とを最大限にバランスさせるために、チャット履歴の異なる処理を特徴としている。
全体として、この研究はシミュレーションエンジンのランゲージの時代を解き放つインテリジェントなプラットフォームとして言語モデルを確立します。
関連論文リスト
- In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Informal Safety Guarantees for Simulated Optimizers Through
Extrapolation from Partial Simulations [0.0]
自己教師付き学習は、最先端の言語モデリングのバックボーンである。
自己教師付きデータセットにおける予測損失を伴うトレーニングはシミュレータを引き起こすと論じられている。
論文 参考訳(メタデータ) (2023-11-29T09:32:56Z) - Memory Augmented Large Language Models are Computationally Universal [44.64529266193095]
変換器をベースとした大規模言語モデルは,外部メモリで拡張した場合に計算的に普遍的であることを示す。
我々は,既存の大規模言語モデルであるFlan-U-PaLM 540Bと連想型読み書きメモリを組み合わせることで,汎用チューリングマシンの実行を正確にシミュレートできることを確認した。
論文 参考訳(メタデータ) (2023-01-10T02:37:44Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - From Natural Language to Simulations: Applying GPT-3 Codex to Automate
Simulation Modeling of Logistics Systems [0.0]
この研究は、物流にとって重要なシステムのシミュレーションモデルの開発を自動化するために自然言語処理を適用する最初の試みである。
我々は,変換言語モデルであるGPT-3コーデックスをベースとしたフレームワークが,言語記述による待ち行列と在庫制御系の機能的に有効なシミュレーションを生成できることを実証した。
論文 参考訳(メタデータ) (2022-02-24T14:01:50Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Language Model-Based Paired Variational Autoencoders for Robotic
Language Learning [16.538887534958555]
人間の幼児と同様、人工エージェントは環境と対話しながら言語を学ぶことができる。
本稿では,ロボットの動作と言語記述を双方向に結合するニューラルモデルを提案する。
次に, PVAE-BERTを導入し, 事前訓練された大規模言語モデルとモデルを同調する。
論文 参考訳(メタデータ) (2022-01-17T10:05:26Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。