論文の概要: Advancing Cognitive Science with LLMs
- arxiv url: http://arxiv.org/abs/2511.00206v1
- Date: Fri, 31 Oct 2025 19:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.672343
- Title: Advancing Cognitive Science with LLMs
- Title(参考訳): LLMによる認知科学の進歩
- Authors: Dirk U. Wulff, Rui Mata,
- Abstract要約: このレビューでは、フィールドが歴史的に苦労してきた領域を、大規模言語モデルがどうサポートできるかを考察する。
潜在的な落とし穴を含む、これらの領域におけるLLMの現在の機能と限界について概説する。
LLMは、司法的に使用すれば、より統合的で累積的な認知科学の道具として役立つと結論付けている。
- 参考スコア(独自算出の注目度): 2.882998793707955
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cognitive science faces ongoing challenges in knowledge synthesis and conceptual clarity, in part due to its multifaceted and interdisciplinary nature. Recent advances in artificial intelligence, particularly the development of large language models (LLMs), offer tools that may help to address these issues. This review examines how LLMs can support areas where the field has historically struggled, including establishing cross-disciplinary connections, formalizing theories, developing clear measurement taxonomies, achieving generalizability through integrated modeling frameworks, and capturing contextual and individual variation. We outline the current capabilities and limitations of LLMs in these domains, including potential pitfalls. Taken together, we conclude that LLMs can serve as tools for a more integrative and cumulative cognitive science when used judiciously to complement, rather than replace, human expertise.
- Abstract(参考訳): 認知科学は、知識合成と概念的明快さにおいて現在進行中の課題に直面している。
人工知能の最近の進歩、特に大規模言語モデル(LLM)の開発は、これらの問題に対処するためのツールを提供する。
本稿では,学際的関係の確立,理論の定式化,明確な測定分類学の発達,統合モデリングフレームワークによる一般化可能性の達成,文脈的・個人的変動の獲得など,この分野が歴史的に苦戦してきた分野をLLMがいかに支援できるかを考察する。
潜在的な落とし穴を含む、これらの領域におけるLLMの現在の機能と限界について概説する。
まとめると、LLMは人間の専門知識を置き換えるのではなく、司法的に補うために使用されるとき、より統合的で累積的な認知科学の道具として機能する、と結論付けている。
関連論文リスト
- Scaling and Beyond: Advancing Spatial Reasoning in MLLMs Requires New Recipes [84.1059652774853]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey [45.918134803778834]
大規模言語モデル(LLM)は、自然言語理解、テキスト要約、機械翻訳といった様々なタスクにおいて顕著な成功を収めている。
彼らの汎用的な性質は、医療、化学、法的な分析といった専門的な知識を必要とするドメイン固有のアプリケーションにおいて、その効果を制限していることが多い。
これを解決するために、研究者はドメイン固有の知識を統合することでLLMを強化する様々な方法を模索してきた。
論文 参考訳(メタデータ) (2025-02-15T07:43:43Z) - A Survey on Large Language Models with some Insights on their Capabilities and Limitations [0.3222802562733786]
大規模言語モデル(LLM)は、様々な言語関連タスクで顕著なパフォーマンスを示す。
LLMは、そのコア機能を超えて、創発的な能力を示す。
本稿では,これらの機能を実現する基盤となるコンポーネント,スケーリング機構,アーキテクチャ戦略について検討する。
論文 参考訳(メタデータ) (2025-01-03T21:04:49Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - An Interdisciplinary Outlook on Large Language Models for Scientific
Research [3.4108358650013573]
本稿では,異なる学問分野におけるLarge Language Models(LLM)の機能と制約について述べる。
本稿では, LLM が学術調査の強化を図り, 大量の出版物を要約することで, 文献レビューの促進などの具体的な事例を提示する。
LLMが直面する課題には、広範囲で偏見のあるデータセットへの依存や、それらの使用から生じる潜在的な倫理的ジレンマが含まれる。
論文 参考訳(メタデータ) (2023-11-03T19:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。