論文の概要: Self Generated Wargame AI: Double Layer Agent Task Planning Based on
Large Language Model
- arxiv url: http://arxiv.org/abs/2312.01090v2
- Date: Mon, 18 Dec 2023 07:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 22:02:57.768190
- Title: Self Generated Wargame AI: Double Layer Agent Task Planning Based on
Large Language Model
- Title(参考訳): 自己生成型ウォーゲームAI:大規模言語モデルに基づく二重層エージェントタスク計画
- Authors: Y.Sun, J.Zhao, C.Yu, W.Wang, X.Zhou
- Abstract要約: 本稿では,大規模言語モデルを知的意思決定の分野に革新的に応用する。
自然言語の相互作用による2層エージェントタスク計画、課題、決定命令の実行を提案する。
大規模言語モデルの知的意思決定能力は、一般的に使われている強化学習AIやルールAIよりもはるかに強いことが判明した。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The large language models represented by ChatGPT have a disruptive impact on
the field of artificial intelligence. But it mainly focuses on natural language
processing, speech recognition, machine learning and natural language
understanding. This paper innovatively applies the large language model to the
field of intelligent decision-making, places the large language model in the
decision-making center, and constructs an agent architecture with the large
language model as the core. Based on this, it further proposes a two-layer
agent task planning, issues and executes decision commands through the
interaction of natural language, and carries out simulation verification
through the wargame simulation environment. Through the game confrontation
simulation experiment, it is found that the intelligent decision-making ability
of the large language model is significantly stronger than the commonly used
reinforcement learning AI and rule AI, and the intelligence, understandability
and generalization are all better. And through experiments, it was found that
the intelligence of the large language model is closely related to prompt. This
work also extends the large language model from previous human-computer
interaction to the field of intelligent decision-making, which has important
reference value and significance for the development of intelligent
decision-making.
- Abstract(参考訳): ChatGPTで表される大きな言語モデルは、人工知能の分野に破壊的な影響を与える。
しかし、主に自然言語処理、音声認識、機械学習、自然言語理解に焦点を当てている。
本稿では,大規模言語モデルを知的意思決定分野に適用し,大規模言語モデルを意思決定センタに配置し,大規模言語モデルをコアとしてエージェントアーキテクチャを構築する。
そこで本研究では,自然言語の相互作用による2層エージェントタスク計画,課題,決定命令の実行,およびウォーゲームシミュレーション環境によるシミュレーション検証を行う。
ゲーム対決シミュレーション実験により、大言語モデルの知的意思決定能力は、一般的に使われている強化学習AIやルールAIよりもはるかに強く、知性、理解可能性、一般化性がよいことがわかった。
そして,実験により,大規模言語モデルの知性はプロンプトと密接に関連していることがわかった。
この研究は、従来の人間とコンピュータの相互作用から知的意思決定の分野まで、大きな言語モデルを拡張し、知的意思決定の発展に重要な参照価値と重要性を持つ。
関連論文リスト
- Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Bootstrapping Cognitive Agents with a Large Language Model [0.9971537447334835]
大規模な言語モデルは、世界の騒々しい一般的な知識を含んでいるが、訓練や微調整は困難である。
この研究では、認知モデルと大きな言語モデルで符号化されたノイズの多い知識をブートストラップで組み合わせます。
論文 参考訳(メタデータ) (2024-02-25T01:40:30Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models
Understand Human Language? [0.0]
我々は,大規模言語モデルの寄与を,対象システムの理論的に有意な表現として分析する。
これらのモデルの開発と活用の現在の状態からまだ欠けている重要な能力を特定します。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Autoencoding Language Model Based Ensemble Learning for Commonsense
Validation and Explanation [1.503974529275767]
本稿では,コモンセンス検証と説明のための自動符号化言語モデルに基づくアンサンブル学習手法を提案する。
提案手法は,コモンセンスに反する自然言語文(検証サブタスク)を識別し,コモンセンスに反する理由(説明選択サブタスク)を正しく識別する。
SemEval-2020 Task 4のベンチマークデータセットによる実験結果から,本手法が最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-07T09:43:51Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Integrating AI Planning with Natural Language Processing: A Combination
of Explicit and Tacit Knowledge [15.488154564562185]
本稿では,AI計画と自然言語処理の共通点と関係について概説する。
1)計画ベーステキスト理解,(2)計画ベース自然言語処理,(3)計画ベース説明可能性,(4)テキストベースヒューマンロボットインタラクション,(5)アプリケーション。
論文 参考訳(メタデータ) (2022-02-15T02:19:09Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。