論文の概要: CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language
Models
- arxiv url: http://arxiv.org/abs/2401.08438v1
- Date: Sat, 6 Jan 2024 03:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 10:01:39.027039
- Title: CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language
Models
- Title(参考訳): CogGPT:大規模言語モデルにおける認知ダイナミクスのパワーの解放
- Authors: Yaojia Lv, Haojie Pan, Ruiji Fu, Ming Liu, Zhongyuan Wang, Bing Qin
- Abstract要約: 本稿では,大規模言語モデル(LLM)の認知力学の概念を提案し,縦断的研究のインスピレーションを得て,それに対応する課題を提案する。
この課題に向けて,LLMの認知力学を評価し,参加者による調査を通じて検証する新しいベンチマークであるCogBenchを開発した。
本稿では,生涯の認知力学の強化を目的とした,革新的な反復的認知機構を特徴とするタスク用CogGPTを紹介する。
- 参考スコア(独自算出の注目度): 27.81862535460598
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cognitive dynamics are pivotal to advance human understanding of the world.
Recent advancements in large language models (LLMs) reveal their potential for
cognitive simulation. However, these LLM-based cognitive studies primarily
focus on static modeling, overlooking the dynamic nature of cognition. To
bridge this gap, we propose the concept of the cognitive dynamics of LLMs and
present a corresponding task with the inspiration of longitudinal studies.
Towards the task, we develop CogBench, a novel benchmark to assess the
cognitive dynamics of LLMs and validate it through participant surveys. We also
design two evaluation metrics for CogBench, including Authenticity and
Rationality. Recognizing the inherent static nature of LLMs, we introduce
CogGPT for the task, which features an innovative iterative cognitive mechanism
aimed at enhancing lifelong cognitive dynamics. Empirical results demonstrate
the superiority of CogGPT over existing methods, particularly in its ability to
facilitate role-specific cognitive dynamics under continuous information flows.
- Abstract(参考訳): 認知力学は、人間の世界の理解を促進するために重要である。
大規模言語モデル(LLM)の最近の進歩は、認知シミュレーションの可能性を明らかにしている。
しかし、これらのLLMに基づく認知研究は主に静的モデリングに焦点を当てており、認知の動的な性質を見下ろしている。
このギャップを埋めるために,LLMの認知力学の概念を提案し,縦断的研究のインスピレーションを得てそれに対応する課題を提示する。
この課題に向けて,LLMの認知力学を評価し,参加者調査を通じて検証する新しいベンチマークであるCogBenchを開発した。
また、認証とRationalityを含む2つの評価指標をCogBench向けに設計する。
llmsの本質的な静的な性質を認識し,生涯の認知ダイナミクス向上を目的とした革新的な反復的認知機構を特徴とするタスクのためのcoggptを提案する。
実証実験の結果、CogGPTは既存の手法よりも優れていることが示され、特に連続的な情報フロー下での役割特異的認知力学を促進する能力が示された。
関連論文リスト
- Reinforcement Learning under Latent Dynamics: Toward Statistical and Algorithmic Modularity [51.40558987254471]
強化学習の現実的な応用は、エージェントが複雑な高次元の観察を行う環境を含むことが多い。
本稿では,統計的・アルゴリズム的な観点から,textit General$ latent dynamicsの下での強化学習の課題に対処する。
論文 参考訳(メタデータ) (2024-10-23T14:22:49Z) - Unlocking Structured Thinking in Language Models with Cognitive Prompting [0.0]
本研究では,大規模言語モデルにおける問題解決を導く新しい手法として認知的プロンプトを提案する。
メタのLLaMAモデルにおいて認知的プロンプトの有効性を評価する。
論文 参考訳(メタデータ) (2024-10-03T19:53:47Z) - An Introduction to Cognidynamics [11.337163242503166]
textitCognidynamicsは、時間とともに課される最適な目的によって駆動される認知システムのダイナミクスである。
我々は,エネルギー散逸の重要な役割とその注意機構と意識行動の焦点との関係を示す。
論文 参考訳(メタデータ) (2024-08-18T05:40:07Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - CogLM: Tracking Cognitive Development of Large Language Models [20.138831477848615]
我々は、Piaget's Theory of Cognitive Developmentに基づくベンチマークCogLMを構築した。
CogLMは、20人以上の専門家によって作られた10の認知能力にまたがる1220の質問で構成されている。
20歳児に匹敵する高度なLPM(GPT-4)にヒトのような認知能力が出現していることが判明した。
論文 参考訳(メタデータ) (2024-08-17T09:49:40Z) - Exploring the LLM Journey from Cognition to Expression with Linear Representations [10.92882688742428]
本稿では,大規模言語モデル(LLM)における認知的・表現的能力の進化と相互作用について,詳細な検討を行う。
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)の3つの重要なフェーズにまたがる線形表現を通して、モデルの認知的・表現的能力を定義し、探求する。
SFT, RLHFでは, 認知能力が発達する傾向がみられ, 認知能力が発達する傾向がみられた。
論文 参考訳(メタデータ) (2024-05-27T08:57:04Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis [12.9222727028798]
本稿では、知的行動を示す人工知能エージェントの開発に使用される2つのAIサブセクタの統合について考察する:大規模言語モデル(LLM)と認知アーキテクチャ(CA)である。
我々は3つの統合的アプローチを提案し、それぞれ理論モデルに基づいて、予備的な経験的証拠によって支持される。
これらのアプローチは、LSMとCAの長所を活用すると同時に、弱点を軽減し、より堅牢なAIシステムの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2023-08-18T21:42:47Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。