論文の概要: Generative AI vs. AGI: The Cognitive Strengths and Weaknesses of Modern
LLMs
- arxiv url: http://arxiv.org/abs/2309.10371v1
- Date: Tue, 19 Sep 2023 07:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:54:58.003816
- Title: Generative AI vs. AGI: The Cognitive Strengths and Weaknesses of Modern
LLMs
- Title(参考訳): ジェネレーティブAI vs. AGI:現代LLMの認知力と弱さ
- Authors: Ben Goertzel
- Abstract要約: このようなLCMの漸進的な改善は、人間レベルのAGIに向けた取り組みにおいて、実現可能なアプローチではない、と論じられている。
LLMに関する社会的・倫理的事項は、この観点から非常に簡潔に扱われる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A moderately detailed consideration of interactive LLMs as cognitive systems
is given, focusing on LLMs circa mid-2023 such as ChatGPT, GPT-4, Bard, Llama,
etc.. Cognitive strengths of these systems are reviewed, and then careful
attention is paid to the substantial differences between the sort of cognitive
system these LLMs are, and the sort of cognitive systems human beings are. It
is found that many of the practical weaknesses of these AI systems can be tied
specifically to lacks in the basic cognitive architectures according to which
these systems are built. It is argued that incremental improvement of such LLMs
is not a viable approach to working toward human-level AGI, in practical terms
given realizable amounts of compute resources. This does not imply there is
nothing to learn about human-level AGI from studying and experimenting with
LLMs, nor that LLMs cannot form significant parts of human-level AGI
architectures that also incorporate other ideas. Social and ethical matters
regarding LLMs are very briefly touched from this perspective, which implies
that while care should be taken regarding misinformation and other issues, and
economic upheavals will need their own social remedies based on their
unpredictable course as with any powerfully impactful technology, overall the
sort of policy needed as regards modern LLMs is quite different than would be
the case if a more credible approximation to human-level AGI were at hand.
- Abstract(参考訳): 認知システムとしての対話型LLMについて、ChatGPT, GPT-4, Bard, Llamaなどの2023年中頃のLLMに着目して、適度に詳細に検討した。
これらのシステムの認知的強みをレビューし、それらがllmである認知システムと、人間が持つ認知システムとの実質的な違いに注意を払う。
これらのAIシステムの実用的弱点の多くは、これらのシステムが構築されている基本的な認知アーキテクチャの欠如に特に結びつくことができる。
このようなllmの漸進的な改善は、実現可能な量の計算資源を前提として、人間レベルのagiに取り組むための現実的なアプローチではないと論じている。
このことは、人間レベルのAGIについてLLMの研究や実験から学ぶことや、LLMが他のアイデアを取り入れた人間レベルのAGIアーキテクチャの重要な部分を形成できないことを意味するものではない。
この観点から、LLMに関する社会的・倫理的な問題は、誤った情報やその他の問題に注意を払っているべきであり、経済的な不況は、いかなる強力な影響力のある技術でも、予測不可能な進路に基づいて、独自の社会的救済が必要であることを意味するが、全体として、現代のLLMに関して必要とされる政策は、人間レベルのAGIに対するより信頼できる近似が手元にある場合とは全く異なる。
関連論文リスト
- Large Language Models and Cognitive Science: A Comprehensive Review of Similarities, Differences, and Challenges [12.390859712280324]
本稿では,Large Language Models(LLM)と認知科学の交わりについて概観する。
我々は,LLMの認知能力を評価する手法を分析し,認知モデルとしての可能性について議論する。
我々はLLMの認知バイアスと限界を評価し,その性能向上手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T02:30:12Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Metacognitive Myopia in Large Language Models [0.0]
大規模言語モデル(LLM)は、文化的に固有のステレオタイプ、クラウドの道徳的判断、あるいは多数派の肯定的な評価を強化する潜在的に有害なバイアスを示す。
認知・生態的枠組みとしてメタ認知ミオピアを提案する。
我々の理論的枠組みは, メタ認知, 監視, 制御の2つの要素が欠如していることが, メタ認知性ミオピアの5つの症状を引き起こすことを示唆している。
論文 参考訳(メタデータ) (2024-08-10T14:43:57Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Can A Cognitive Architecture Fundamentally Enhance LLMs? Or Vice Versa? [0.32634122554913997]
この論文は、人間の認知と心理学からの洞察を、コンピュータ認知アーキテクチャによって具現化されたように取り入れることで、より有能で、より信頼性があり、より人間に近いシステムを開発するのに役立つと論じている。
論文 参考訳(メタデータ) (2024-01-19T01:14:45Z) - Ethical Artificial Intelligence Principles and Guidelines for the
Governance and Utilization of Highly Advanced Large Language Models [20.26440212703017]
大型言語モデル(LLM)の開発と利用が増加している。
本稿では,高度なLCMに対処するために倫理的AIの原則とガイドラインをどう扱うかを検討する。
論文 参考訳(メタデータ) (2023-12-19T06:28:43Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。