論文の概要: On Languaging a Simulation Engine
- arxiv url: http://arxiv.org/abs/2402.16482v1
- Date: Mon, 26 Feb 2024 11:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:45:58.485601
- Title: On Languaging a Simulation Engine
- Title(参考訳): シミュレーションエンジンのラングングについて
- Authors: Han Liu, Liantang Li
- Abstract要約: Lang2Simは、シミュレーションエンジンのランゲージング上で対話的なナビゲーションを可能にする言語間シミュレーションフレームワークである。
この研究は、シミュレーションエンジンのランゲージングの時代を解き放つための、インテリジェントなプラットフォームとしての言語モデルを確立する。
- 参考スコア(独自算出の注目度): 6.17566001699186
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Language model intelligence is revolutionizing the way we program materials
simulations. However, the diversity of simulation scenarios renders it
challenging to precisely transform human language into a tailored simulator.
Here, using three functionalized types of language model, we propose a
language-to-simulation (Lang2Sim) framework that enables interactive navigation
on languaging a simulation engine, by taking a scenario instance of water
sorption in porous matrices. Unlike line-by-line coding of a target simulator,
the language models interpret each simulator as an assembly of invariant tool
function and its variant input-output pair. Lang2Sim enables the precise
transform of textual description by functionalizing and sequentializing the
language models of, respectively, rationalizing the tool categorization,
customizing its input-output combinations, and distilling the simulator input
into executable format. Importantly, depending on its functionalized type, each
language model features a distinct processing of chat history to best balance
its memory limit and information completeness, thus leveraging the model
intelligence to unstructured nature of human request. Overall, this work
establishes language model as an intelligent platform to unlock the era of
languaging a simulation engine.
- Abstract(参考訳): 言語モデルインテリジェンスは、材料シミュレーションのプログラミング方法に革命をもたらしています。
しかし、シミュレーションシナリオの多様性は、人間の言語をカスタマイズされたシミュレータに正確に変換することを困難にしている。
本稿では,多孔質行列における水吸収のシナリオを用いて,シミュレーションエンジンを動作させる際の対話型ナビゲーションを実現する言語間シミュレーション(lang2sim)フレームワークを提案する。
対象シミュレータのラインバイライン符号化とは異なり、言語モデルは各シミュレータを不変ツール関数とその変種入出力対のアセンブリとして解釈する。
Lang2Simは、言語モデルの機能化とシーケンシャル化、ツール分類の合理化、入力と出力の組み合わせのカスタマイズ、シミュレータ入力を実行可能なフォーマットに蒸留することで、テキスト記述の正確な変換を可能にする。
重要なことは、その機能化されたタイプによって、各言語モデルは、そのメモリ限界と情報の完全性とを最大限にバランスさせるために、チャット履歴の異なる処理を特徴としている。
全体として、この研究はシミュレーションエンジンのランゲージの時代を解き放つインテリジェントなプラットフォームとして言語モデルを確立します。
関連論文リスト
- Generating Driving Simulations via Conversation [20.757088470174452]
所望のシナリオと車両動作の合成において,非コーディング領域の専門家を支援するために,自然言語インタフェースを設計する。
非常に小さなトレーニングデータセットにもかかわらず、発話をシンボルプログラムに変換するのにそれを使うことは可能であることを示す。
人間の実験により、対話はシミュレーション生成の成功に不可欠であることが示され、拡張された会話に関わらず、世代よりも4.5倍の成功率が得られる。
論文 参考訳(メタデータ) (2024-10-13T13:07:31Z) - FactorSim: Generative Simulation via Factorized Representation [14.849320460718591]
本稿では,エージェントの訓練に使用できる言語入力から,コード中のフルシミュレーションを生成するFACTORSIMを提案する。
評価のために、我々は、強化学習環境におけるゼロショット転送を容易にするため、生成したシミュレーションコードの精度と有効性を評価できる生成シミュレーションベンチマークを導入する。
その結果、FACTORSIMは、即時アライメント(例えば、精度)、ゼロショット転送能力、人的評価に関するシミュレーションを生成する上で、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T09:00:30Z) - ChatSUMO: Large Language Model for Automating Traffic Scenario Generation in Simulation of Urban MObility [5.111204055180423]
大規模言語モデル(LLM)は、テキスト、音声、画像、ビデオなどのマルチモーダルな入力と出力を扱うことができる。
本稿では,言語処理スキルを統合し,抽象的および実世界のシミュレーションシナリオを生成するLLMベースのエージェントChatSUMOを提案する。
シミュレーション生成のために,オールバニ市における実世界のシミュレーションを96%の精度で作成した。
論文 参考訳(メタデータ) (2024-08-29T03:59:11Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - From Natural Language to Simulations: Applying GPT-3 Codex to Automate
Simulation Modeling of Logistics Systems [0.0]
この研究は、物流にとって重要なシステムのシミュレーションモデルの開発を自動化するために自然言語処理を適用する最初の試みである。
我々は,変換言語モデルであるGPT-3コーデックスをベースとしたフレームワークが,言語記述による待ち行列と在庫制御系の機能的に有効なシミュレーションを生成できることを実証した。
論文 参考訳(メタデータ) (2022-02-24T14:01:50Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Language Model-Based Paired Variational Autoencoders for Robotic Language Learning [18.851256771007748]
人間の幼児と同様、人工エージェントは環境と対話しながら言語を学ぶことができる。
本稿では,ロボットの動作と言語記述を双方向に結合するニューラルモデルを提案する。
次に, PVAE-BERTを導入し, 事前訓練された大規模言語モデルとモデルを同調する。
論文 参考訳(メタデータ) (2022-01-17T10:05:26Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。