論文の概要: CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language Models
- arxiv url: http://arxiv.org/abs/2401.08438v2
- Date: Tue, 24 Sep 2024 07:41:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-26 02:48:03.213140
- Title: CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language Models
- Title(参考訳): CogGPT: 大規模言語モデルにおける認知ダイナミクスのパワーの解放
- Authors: Yaojia Lv, Haojie Pan, Zekun Wang, Jiafeng Liang, Yuanxing Liu, Ruiji Fu, Ming Liu, Zhongyuan Wang, Bing Qin,
- Abstract要約: 本稿では,大規模言語モデル(LLM)の認知力学の概念を提案し,縦断的研究のインスピレーションを得て,それに対応する課題を提案する。
この課題に向けて,LLMの認知力学を評価し,参加者による調査を通じて検証する新しいベンチマークであるCogBenchを開発した。
本稿では,生涯の認知力学の強化を目的とした,革新的な反復的認知機構を特徴とするタスク用CogGPTを紹介する。
- 参考スコア(独自算出の注目度): 24.079412787914993
- License:
- Abstract: Cognitive dynamics are pivotal to advance human understanding of the world. Recent advancements in large language models (LLMs) reveal their potential for cognitive simulation. However, these LLM-based cognitive studies primarily focus on static modeling, overlooking the dynamic nature of cognition. To bridge this gap, we propose the concept of the cognitive dynamics of LLMs and present a corresponding task with the inspiration of longitudinal studies. Towards the task, we develop CogBench, a novel benchmark to assess the cognitive dynamics of LLMs and validate it through participant surveys. We also design two evaluation metrics for CogBench, including Authenticity and Rationality. Recognizing the inherent static nature of LLMs, we introduce CogGPT for the task, which features an innovative iterative cognitive mechanism aimed at enhancing lifelong cognitive dynamics. Empirical results demonstrate the superiority of CogGPT over existing methods, particularly in its ability to facilitate role-specific cognitive dynamics under continuous information flows.
- Abstract(参考訳): 認知力学は、人間の世界の理解を促進するために重要である。
大規模言語モデル(LLM)の最近の進歩は、認知シミュレーションの可能性を明らかにしている。
しかし、これらのLLMに基づく認知研究は主に静的モデリングに焦点を当てており、認知の動的な性質を見下ろしている。
このギャップを埋めるために,LLMの認知力学の概念を提案し,縦断的研究のインスピレーションを得てそれに対応する課題を提示する。
この課題に向けて,LLMの認知力学を評価し,参加者による調査を通じて検証する新しいベンチマークであるCogBenchを開発した。
また、認証とRationalityを含む2つの評価指標をCogBench向けに設計する。
本研究は,LLMの本質的静的な性質を認識し,生涯の認知力学の強化を目的とした,革新的な反復的認知機構を特徴とするタスクのCogGPTを紹介する。
実証実験の結果、CogGPTは既存の手法よりも優れていることが示される。
関連論文リスト
- Exploring the LLM Journey from Cognition to Expression with Linear Representations [10.92882688742428]
本稿では,大規模言語モデル(LLM)における認知的・表現的能力の進化と相互作用について,詳細な検討を行う。
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)の3つの重要なフェーズにまたがる線形表現を通して、モデルの認知的・表現的能力を定義し、探求する。
SFT, RLHFでは, 認知能力が発達する傾向がみられ, 認知能力が発達する傾向がみられた。
論文 参考訳(メタデータ) (2024-05-27T08:57:04Z) - Metacognitive Retrieval-Augmented Large Language Models [43.57020180706832]
本稿ではメタRAG(MetaRAG)について紹介する。
これを統合することで、MetaRAGはモデルが応答戦略を監視し、評価し、計画することを可能にする。
経験的評価は、MetaRAGが既存の手法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2024-02-18T15:41:31Z) - K-Level Reasoning with Large Language Models [80.13817747270029]
急速に発展する環境における意思決定のための大規模言語モデル(LLM)の動的推論機能について検討する。
実世界の動的意思決定の複雑さを反映した2つのゲーム理論に基づくパイロットチャレンジを導入する。
これらの課題は明確に定義されており、LLMの動的推論能力の明確で制御可能で正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis [12.9222727028798]
本稿では、知的行動を示す人工知能エージェントの開発に使用される2つのAIサブセクタの統合について考察する:大規模言語モデル(LLM)と認知アーキテクチャ(CA)である。
我々は3つの統合的アプローチを提案し、それぞれ理論モデルに基づいて、予備的な経験的証拠によって支持される。
これらのアプローチは、LSMとCAの長所を活用すると同時に、弱点を軽減し、より堅牢なAIシステムの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2023-08-18T21:42:47Z) - Modelling human logical reasoning process in dynamic environmental
stress with cognitive agents [13.171768256928509]
本研究では,ドリフト拡散と深部強化学習を統合した認知エージェントを提案する。
21,157個の論理応答の大規模なデータセットを活用することで、動的ストレスのパフォーマンスへの影響を調査する。
定量的に、このフレームワークは、主観的および刺激特異的な行動差を捉えることにより、認知モデリングを改善する。
全体として、この研究は、動的文脈における人間の論理的推論プロセスのバガリーをシミュレートし、理解するための、強力でデータ駆動の方法論を示している。
論文 参考訳(メタデータ) (2023-01-15T23:46:37Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Computational Metacognition [2.0552049801885746]
計算メタ認知は、統合された人工システムにおける高次推論に対する認知システムの観点から表される。
本稿では,メタレベルの目標操作と学習によって認識を変化させることで,計算メタ認知がパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2022-01-30T17:34:53Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。