論文の概要: DeepThought: An Architecture for Autonomous Self-motivated Systems
- arxiv url: http://arxiv.org/abs/2311.08547v1
- Date: Tue, 14 Nov 2023 21:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:18:25.316160
- Title: DeepThought: An Architecture for Autonomous Self-motivated Systems
- Title(参考訳): deepthought: 自律的自己モチベーションシステムのためのアーキテクチャ
- Authors: Arlindo L. Oliveira, Tiago Domingos, M\'ario Figueiredo, Pedro U. Lima
- Abstract要約: 大規模言語モデル(LLM)の内部アーキテクチャは、本質的な動機づけ、エージェンシー、あるいはある程度の意識を支持できない。
我々は,LLMを認知言語エージェントのアーキテクチャに統合し,エージェントや自己モチベーション,メタ認知の特徴を表現できるアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of large language models (LLMs) to engage in credible dialogues
with humans, taking into account the training data and the context of the
conversation, has raised discussions about their ability to exhibit intrinsic
motivations, agency, or even some degree of consciousness. We argue that the
internal architecture of LLMs and their finite and volatile state cannot
support any of these properties. By combining insights from complementary
learning systems, global neuronal workspace, and attention schema theories, we
propose to integrate LLMs and other deep learning systems into an architecture
for cognitive language agents able to exhibit properties akin to agency,
self-motivation, even some features of meta-cognition.
- Abstract(参考訳): 大規模言語モデル(llm)が人間と信頼できる対話を行う能力は、訓練データと会話の文脈を考慮しており、本質的な動機づけ、機関、さらにはある程度の意識を示す能力について議論を呼んでいる。
LLMの内部構造とその有限かつ揮発的な状態は、これらの特性のいずれかを支持できない。
補完学習システム,グローバルニューロンワークスペース,アテンションスキーマ理論からの洞察を組み合わせることで,認知言語エージェントがメタ認知のいくつかの特徴でさえも、エージェンシーや自己モチベーションのような特性を示すことができるアーキテクチャにLLMや他の深層学習システムを統合することを提案する。
関連論文リスト
- Can A Cognitive Architecture Fundamentally Enhance LLMs? Or Vice Versa? [0.32634122554913997]
この論文は、人間の認知と心理学からの洞察を、コンピュータ認知アーキテクチャによって具現化されたように取り入れることで、より有能で、より信頼性があり、より人間に近いシステムを開発するのに役立つと論じている。
論文 参考訳(メタデータ) (2024-01-19T01:14:45Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Unveiling A Core Linguistic Region in Large Language Models [49.860260050718516]
本稿では,脳局在化をプロトタイプとして用いた類似研究を行う。
我々は、言語能力に対応する大規模言語モデルにおいて、中核領域を発見した。
我々は,言語能力の向上が必ずしもモデルの知識レベルの向上に伴わないことを観察する。
論文 参考訳(メタデータ) (2023-10-23T13:31:32Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis [12.9222727028798]
本稿では、知的行動を示す人工知能エージェントの開発に使用される2つのAIサブセクタの統合について考察する:大規模言語モデル(LLM)と認知アーキテクチャ(CA)である。
我々は3つの統合的アプローチを提案し、それぞれ理論モデルに基づいて、予備的な経験的証拠によって支持される。
これらのアプローチは、LSMとCAの長所を活用すると同時に、弱点を軽減し、より堅牢なAIシステムの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2023-08-18T21:42:47Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z) - Knowledge Engineering in the Long Game of Artificial Intelligence: The
Case of Speech Acts [0.6445605125467572]
本稿では,知識工学の原則と実践について述べる。
我々は,言語学,認知モデル,統計自然言語処理において広く追求されている課題である対話行動モデリングに注目した。
論文 参考訳(メタデータ) (2022-02-02T14:05:12Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。