論文の概要: Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis
- arxiv url: http://arxiv.org/abs/2308.09830v1
- Date: Fri, 18 Aug 2023 21:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:51:49.454990
- Title: Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis
- Title(参考訳): ロバストAIのための大規模言語モデルと認知アーキテクチャの相乗的統合:探索的分析
- Authors: Oscar J. Romero, John Zimmerman, Aaron Steinfeld, Anthony Tomasic
- Abstract要約: 本稿では、知的行動を示す人工エージェントの構築において、AIの2つのサブカテゴリを統合するための代替手段について検討する:大規模言語モデル(LLM)と認知アーキテクチャ(CA)である。
さまざまなシナジスティックアプローチが、それぞれの弱点と限界を相互に補うことができ、最終的にはより堅牢で洗練された人工知能システムを育むことができる、という仮説を立てる。
- 参考スコア(独自算出の注目度): 12.9222727028798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores alternatives for integrating two subdisciplines of AI in
the construction of artificial agents that exhibit intelligent behavior: Large
Language Models (LLMs) and Cognitive Architectures (CAs). Guided by theoretical
models and supported by preliminary empirical data, we hypothesize how diverse
synergistic approaches can mutually compensate for their respective weaknesses
and limitations, ultimately fostering more robust and sophisticated artificial
intelligence systems. Additionally, we discuss the tradeoffs and challenges
associated with each approach.
- Abstract(参考訳): 本稿では,知的行動を示す人工エージェントの構築において,AIの2つのサブ分野を統合するための選択肢について検討する。
理論モデルに導かれ、予備的な実証データによって支援された我々は、多様な相乗的アプローチがそれぞれの弱点と限界を相互に補償し、最終的により堅牢で洗練された人工知能システムを育むことができるかを仮定する。
さらに、それぞれのアプローチに関連するトレードオフと課題についても論じる。
関連論文リスト
- Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - Cooperate or Collapse: Emergence of Sustainability Behaviors in a Society of LLM Agents [101.17919953243107]
本稿では,大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するためのシミュレーションプラットフォームであるGovSimについて紹介する。
我々は,AIエージェント間の資源共有のダイナミクスを探求し,倫理的考察,戦略的計画,交渉スキルの重要性を強調した。
GovSimでは、15の試験されたLLMのうち、持続可能な結果を達成することができたのはわずか2つであり、モデルが共有リソースを管理する能力に重大なギャップがあることを示唆している。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - DeepThought: An Architecture for Autonomous Self-motivated Systems [1.6385815610837167]
大規模言語モデル(LLM)の内部アーキテクチャは、本質的な動機づけ、エージェンシー、あるいはある程度の意識を支持できない。
我々は,LLMを認知言語エージェントのアーキテクチャに統合し,エージェントや自己モチベーション,メタ認知の特徴を表現できるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-14T21:20:23Z) - Detecting Any Human-Object Interaction Relationship: Universal HOI
Detector with Spatial Prompt Learning on Foundation Models [55.20626448358655]
本研究では,ビジョン・ランゲージ(VL)基礎モデルと大規模言語モデル(LLM)を用いて,オープンワールド環境におけるユニバーサルインタラクション認識について検討する。
我々の設計にはHO Prompt-guided Decoder (HOPD) が含まれており、基礎モデルにおける高次関係表現と画像内の様々なHOペアとの結合を容易にする。
オープンカテゴリの対話認識では,対話文と解釈文の2つのタイプがサポートされている。
論文 参考訳(メタデータ) (2023-11-07T08:27:32Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology
View [64.43238868957813]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Controlling Synthetic Characters in Simulations: A Case for Cognitive
Architectures and Sigma [0.0]
シミュレーションは、参加する合成文字に対して現実的で信頼できる振る舞いを生成する知性の計算モデルを必要とする。
Sigmaは認知アーキテクチャとシステムであり、象徴的認知アーキテクチャ、確率的グラフィカルモデル、そしてより最近のニューラルモデルに関する40年間にわたる独立した研究から学んだことを、そのグラフィカルアーキテクチャ仮説の下で組み合わせようとしている。
本稿では,Sigmaを多種多様な機能とともに導入し,その組み合わせを強調するために3つの概念実証Sigmaモデルを使用する。
論文 参考訳(メタデータ) (2021-01-06T19:07:36Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。