論文の概要: A Guide to Large Language Models in Modeling and Simulation: From Core Techniques to Critical Challenges
- arxiv url: http://arxiv.org/abs/2602.05883v1
- Date: Thu, 05 Feb 2026 17:00:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.065832
- Title: A Guide to Large Language Models in Modeling and Simulation: From Core Techniques to Critical Challenges
- Title(参考訳): モデリングとシミュレーションにおける大規模言語モデル入門:コア技術から批判的課題へ
- Authors: Philippe J. Giabbanelli,
- Abstract要約: 我々は,大規模言語モデル(LLM)の使用方法に関する包括的で実践的なガイダンスを提供することを目指している。
我々は、非決定主義、知識増強、M&Sデータの分解など、混乱の共通源について議論する。
我々は,設計選択の原則,診断戦略,経験的評価を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have rapidly become familiar tools to researchers and practitioners. Concepts such as prompting, temperature, or few-shot examples are now widely recognized, and LLMs are increasingly used in Modeling & Simulation (M&S) workflows. However, practices that appear straightforward may introduce subtle issues, unnecessary complexity, or may even lead to inferior results. Adding more data can backfire (e.g., deteriorating performance through model collapse or inadvertently wiping out existing guardrails), spending time on fine-tuning a model can be unnecessary without a prior assessment of what it already knows, setting the temperature to 0 is not sufficient to make LLMs deterministic, providing a large volume of M&S data as input can be excessive (LLMs cannot attend to everything) but naive simplifications can lose information. We aim to provide comprehensive and practical guidance on how to use LLMs, with an emphasis on M&S applications. We discuss common sources of confusion, including non-determinism, knowledge augmentation (including RAG and LoRA), decomposition of M&S data, and hyper-parameter settings. We emphasize principled design choices, diagnostic strategies, and empirical evaluation, with the goal of helping modelers make informed decisions about when, how, and whether to rely on LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、研究者や実践者にとって、急速に親しみやすいツールになっている。
プロンプト、温度、少数ショットの例といった概念が広く認識され、モデリングとシミュレーション(M&S)のワークフローでLLMがますます使われている。
しかし、単純に見えるプラクティスは微妙な問題や不要な複雑さをもたらすかもしれないし、結果が劣るかもしれない。
より多くのデータを追加すると、バックファイア(例えば、モデル崩壊によるパフォーマンスの劣化や、既存のガードレールを不注意に拭き取る)、モデルの微調整に時間を費やすことは、既に知っていることの事前評価なしでは不要になり、温度を0に設定することは、LLMを決定論的にするのに十分ではなく、大量のM&Sデータを入力として提供する(LLMは、すべてに対応できない)が、単純さは情報を失う可能性がある。
我々は、M&Sアプリケーションに重点を置いて、LLMの使い方に関する包括的で実践的なガイダンスを提供することを目指している。
我々は,非決定性,知識増強(RAGやLoRAを含む),M&Sデータの分解,ハイパーパラメータ設定など,混乱の共通源について議論する。
我々は、設計選択、診断戦略、経験的評価の原則を強調し、モデリング者がいつ、どのように、どのように、そして、LLMに頼るべきかについて、情報的な決定を下すのを助けることを目的としている。
関連論文リスト
- LLM Enhancement with Domain Expert Mental Model to Reduce LLM Hallucination with Causal Prompt Engineering [0.3437656066916039]
本稿では,人間の機械対話とモノトーンブールとk値関数を最適化した技術を用いて,意思決定の計算処理可能なパーソナルエキスパート精神モデル(EMM)を探索する手法を提案する。
LLMプロンプトエンジニアリングのためのEMMアルゴリズムには,因子同定,(2)因子の階層的構造化,(3)一般化された専門家精神モデル仕様の生成,(4)その仕様から詳細な専門家精神モデルを生成する4つのステップがある。
論文 参考訳(メタデータ) (2025-09-13T14:35:51Z) - Language Models Coupled with Metacognition Can Outperform Reasoning Models [32.32646975975768]
大規模言語モデル(LLM)は、様々な推論タスクの速度と適応性に優れる。
LRMは複雑なステップバイステップ推論のために特別に設計されている。
SOFAI-LM はメタ認知により遅いがより強力な LRM と高速な LLM を協調する。
論文 参考訳(メタデータ) (2025-08-25T12:19:57Z) - Applying Large Language Models to Travel Satisfaction Analysis [2.5105418815378555]
本研究は上海で収集された家庭調査データを用いて,大言語モデル(LLM)と人間との相違点の存在と原因を特定する。
LLMは文脈的理解と一般化において強力な能力を持ち、タスク固有のデータへの依存を著しく減少させる。
小さいサンプルサイズで旅行行動のモデル化に応用できるLCMに基づくモデリング手法を提案する。
論文 参考訳(メタデータ) (2025-05-29T09:11:58Z) - Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。