論文の概要: How Metacognitive Architectures Remember Their Own Thoughts: A Systematic Review
- arxiv url: http://arxiv.org/abs/2503.13467v2
- Date: Wed, 02 Jul 2025 10:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:57.136645
- Title: How Metacognitive Architectures Remember Their Own Thoughts: A Systematic Review
- Title(参考訳): メタ認知アーキテクチャはどのようにして自分の考えを思い出すか:システムレビュー
- Authors: Robin Nolte, Mihai Pomarlan, Ayden Janssen, Daniel Beßler, Kamyar Javanmardi, Sascha Jongebloed, Robert Porzel, John Bateman, Michael Beetz, Rainer Malaka,
- Abstract要約: メタ認知は、人工エージェントの自律性と適応性を高める可能性に大きな注目を集めている。
既存の概要は、基礎となるアルゴリズム、表現、そしてそれぞれの成功に気付かない概念レベルに留まっている。
- 参考スコア(独自算出の注目度): 16.35521789216079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Metacognition has gained significant attention for its potential to enhance autonomy and adaptability of artificial agents but remains a fragmented field: diverse theories, terminologies, and design choices have led to disjointed developments and limited comparability across systems. Existing overviews remain at a conceptual level that is undiscerning to the underlying algorithms, representations, and their respective success. Methods: We address this gap by performing an explorative systematic review. Reports were included if they described techniques enabling Computational Metacognitive Architectures (CMAs) to model, store, remember, and process their episodic metacognitive experiences, one of Flavell's (1979a) three foundational components of metacognition. Searches were conducted in 16 databases, consulted between December 2023 and June 2024. Data were extracted using a 20-item framework considering pertinent aspects. Results: A total of 101 reports on 35 distinct CMAs were included. Our findings show that metacognitive experiences may boost system performance and explainability, e.g., via self-repair. However, lack of standardization and limited evaluations may hinder progress: only 17% of CMAs were quantitatively evaluated regarding this review's focus, and significant terminological inconsistency limits cross-architecture synthesis. Systems also varied widely in memory content, data types, and employed algorithms. Discussion: Limitations include the non-iterative nature of the search query, heterogeneous data availability, and an under-representation of emergent, sub-symbolic CMAs. Future research should focus on standardization and evaluation, e.g., via community-driven challenges, and on transferring promising principles to emergent architectures.
- Abstract(参考訳): 背景: メタ認知は、人工エージェントの自律性と適応性を高める可能性において大きな注目を集めているが、依然として断片的な分野であり続けている。
既存の概要は、基礎となるアルゴリズム、表現、そしてそれぞれの成功に気付かない概念レベルに留まっている。
方法: 爆発的な体系的レビューを行うことで, このギャップに対処する。
計算メタ認知アーキテクチャ(CMA)をモデル化し、保存し、記憶し、そのエピソードメタ認知体験を処理できる技術について、Flavell(1979a)の3つのメタ認知の基礎的構成要素の1つであると報告されている。
2023年12月から2024年6月までに16のデータベースで検索が行われた。
関連する側面を考慮した20項目のフレームワークを用いてデータを抽出した。
結果: CMAは35例, CMAは101例であった。
メタ認知経験は,自己修復によってシステム性能や説明可能性を高める可能性が示唆された。
しかし、標準化や限定的な評価の欠如は進歩を妨げる可能性があり、CMAの17%のみが、このレビューの焦点について定量的に評価され、重要な用語的矛盾がクロスアーキテクチャ合成に制限されている。
システムはまた、メモリの内容、データタイプ、および採用アルゴリズムにも幅広く変化した。
議論: 制限には、検索クエリの非定性、異種データ可用性、創発的サブシンボルCMAの低表現が含まれる。
今後の研究は、標準化と評価、例えば、コミュニティ主導の課題を通じて、そして、有望な原則を創発的なアーキテクチャに移行することに焦点を当てるべきである。
関連論文リスト
- A Framework for Robust Cognitive Evaluation of LLMs [13.822169295436177]
大規模言語モデル(LLM)の創発的認知能力は広く観察されているが、その性質と基盤メカニズムはいまだによく分かっていない。
我々は,LLMの認知能力を体系的に評価するフレームワークであるCognitivEvalを開発した。
論文 参考訳(メタデータ) (2025-04-03T17:35:54Z) - VisFactor: Benchmarking Fundamental Visual Cognition in Multimodal Large Language Models [62.667142971664575]
因子関連認知テスト(FRCT)から得られた新しいベンチマークであるVisFactorを紹介する。
VisFactorは視覚関連FRCTサブテストのデジタル化を行い、基本的な視覚認知タスク間でMLLMを体系的に評価する。
GPT-4o, Gemini-Pro, Qwen-VLなどの最先端MLLMの総合評価を行った。
論文 参考訳(メタデータ) (2025-02-23T04:21:32Z) - Enhancing Cognitive Diagnosis by Modeling Learner Cognitive Structure State [3.0103051895985256]
理論的には、個人の認知状態は基本的にその認知構造状態と等価である。
学習者の認知構造は、意味のある学習を促進し、学業成績を形作るのに不可欠である。
論文 参考訳(メタデータ) (2024-12-27T17:41:39Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z) - Computational Metacognition [2.0552049801885746]
計算メタ認知は、統合された人工システムにおける高次推論に対する認知システムの観点から表される。
本稿では,メタレベルの目標操作と学習によって認識を変化させることで,計算メタ認知がパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2022-01-30T17:34:53Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - CogME: A Cognition-Inspired Multi-Dimensional Evaluation Metric for Story Understanding [19.113385429326808]
本稿では,物語理解に着目したAIモデルを対象とした認知型多次元評価指標であるCogMEを紹介する。
我々は,タスクの性質を理解することに基づくメトリクスの必要性を論じ,人間の認知過程と密接に整合するように設計されている。
このアプローチは、従来の全体的なスコアを超えて洞察を提供し、より高い認知機能をターゲットにしたより洗練されたAI開発のための道を開く。
論文 参考訳(メタデータ) (2021-07-21T02:33:37Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。