論文の概要: Unlocking the Wisdom of Large Language Models: An Introduction to The Path to Artificial General Intelligence
- arxiv url: http://arxiv.org/abs/2409.01007v2
- Date: Wed, 30 Oct 2024 00:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 03:35:26.091944
- Title: Unlocking the Wisdom of Large Language Models: An Introduction to The Path to Artificial General Intelligence
- Title(参考訳): 大規模言語モデルの知恵を解き放つ:人工知能への道のり
- Authors: Edward Y. Chang,
- Abstract要約: 本書には、本章からのタイトル、要約、紹介、および最初の2章の全文も記載されている。
今週リリースされた第2版には、第6章から第9章への大幅な拡張と、Yann LeCun氏のAGIに対する懐疑論に対処する序文の改訂が含まれている。
- 参考スコア(独自算出の注目度): 2.5200794639628032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This booklet, "Unlocking the Wisdom of LLM Collaborative Intelligence," introduces the comprehensive work "The Path to Artificial General Intelligence." Through ten aphorisms, it distills the core principles of LLM Collaborative Intelligence (LCI) as a promising framework toward achieving AGI. The booklet also offers titles, abstracts, and introductions from the main chapters, along with the first two chapters in full. The second edition, released this week, includes significant enhancements to Chapters 6 to 9 and a revised preface addressing Yann LeCun's skepticism about AGI. LeCun argues that LLMs lack memory, planning, and grounding, but we propose that LCI's collaborative architecture, involving multimodal LLMs with executive, legislative, and judicial roles, overcomes these limitations. Chapters on SocraSynth, EVINCE, consciousness modeling, and behavior modeling demonstrate that collaborative LLMs with checks and balances can achieve intelligence beyond any single model's capability. By combining complementary strengths, such as world modeling and advanced sensory capabilities, LCI enables models to work together and perceive reality beyond human limitations. As with human institutions, progress depends on cooperation, not isolation. Collaborative LLMs may unlock new levels of intelligence, paving the way toward AGI.
- Abstract(参考訳): この小冊子"Unlocking the Wisdom of LLM Collaborative Intelligence"は総合的な作品"The Path to Artificial General Intelligence"を紹介している。
10のアフォリスムを通じて、ALMコラボレーティブ・インテリジェンス(LCI)の中核となる原則をAGIを達成するための有望な枠組みとして抽出する。
本書には、本章からのタイトル、要約、紹介、および最初の2章の全文も記載されている。
今週リリースされた第2版には、第6章から第9章への大幅な拡張と、Yann LeCun氏のAGIに対する懐疑論に対処する序文の改訂が含まれている。
LeCun は LLM は記憶、計画、基礎を欠いていると主張しているが、LCI の協調アーキテクチャは、行政、立法、司法の役割を伴うマルチモーダル LLM がこれらの制限を克服することを提案している。
SocraSynth, EVINCE, 意識モデリング, 行動モデリングの章では, チェックとバランスを伴う協調LLMが, 単一モデルの能力を超えたインテリジェンスを達成できることが示されている。
世界モデリングや高度な感覚能力といった補完的な強みを組み合わせることで、LCIはモデルが協力し、人間の限界を超えた現実を知覚することができる。
人間の組織と同様に、進歩は孤立ではなく協力に依存している。
協力的なLLMは新たなレベルのインテリジェンスを解き放ち、AGIへの道を歩むかもしれない。
関連論文リスト
- The Future of AI: Exploring the Potential of Large Concept Models [0.5755004576310334]
ジェネレーティブAIは、Large Language Models (LLMs) という用語が日常のユビキタスな部分となったことで、重要な時代となった。
LLMは、テキスト要約、コード生成、クリエイティブな書き込みといったタスクにおいて、例外的な機能を示してきた。
これらの制限に対処するため、MetaはLarge Concept Models (LCM)を導入した。
LCMは概念を理解の基本単位として使用し、より洗練された意味論的推論と文脈対応の意思決定を可能にする。
論文 参考訳(メタデータ) (2025-01-08T18:18:37Z) - Large language models for artificial general intelligence (AGI): A survey of foundational principles and approaches [0.0]
MLLM(Multimodal large language model)は、多種多様なデータソースから学習する。
この驚くべき偉業にもかかわらず、大規模なデータセットで訓練された最先端のLLMの認知能力は、まだ表面的で不安定だ。
本稿では, エンボディメント, シンボル接地, 因果性, 記憶の原理を, 有機的手法で人工知能(AGI)の達成に活用する方法について論じる。
論文 参考訳(メタデータ) (2025-01-06T17:18:47Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Multi-step Inference over Unstructured Data [2.169874047093392]
医療、法律、金融などの分野における高い意思決定タスクは、精度、包括性、論理的一貫性のレベルを必要とする。
これらの問題に対処するための,ニューロシンボリックAIプラットフォームを開発した。
このプラットフォームは、知識抽出とアライメントのための微調整LDMと、堅牢なシンボリック推論エンジンを統合している。
論文 参考訳(メタデータ) (2024-06-26T00:00:45Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Evolutionary Computation in the Era of Large Language Model: Survey and Roadmap [26.959633651475016]
大規模言語モデル(LLM)と進化的アルゴリズム(EA)の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
LLMに固有の豊富なドメイン知識により、EAはよりインテリジェントな検索を行うことができる。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
論文 参考訳(メタデータ) (2024-01-18T14:58:17Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Boosting Large Language Model for Speech Synthesis: An Empirical Study [86.89548753080432]
大規模言語モデル(LLM)は自然言語処理において大きな進歩を遂げており、言語能力は音声や視覚など他のモダリティにも拡張されている。
我々は,事前学習したLLM LLaMA/OPTと音声合成モデルVALL-Eを組み合わせることで,LLMの強化と音声生成能力の総合的な実証調査を行う。
テキストエンコーダとしてLLMとVALL-Eを組み合わせることで,LLMとVALL-Eの3つの統合手法を比較した。
論文 参考訳(メタデータ) (2023-12-30T14:20:04Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - Making LLaMA SEE and Draw with SEED Tokenizer [69.1083058794092]
大規模言語モデルにSEEとDrawの能力を持たせるための精巧な画像トークンであるSEEDを紹介します。
SEEDトークンを使うことで、LLMはオリジナルのトレーニングレシピの下でスケーラブルなマルチモーダルオートレグレスを実行することができる。
SEED-LLaMAはマルチターン・イン・コンテクスト・マルチモーダル生成のような合成創発的能力を示す。
論文 参考訳(メタデータ) (2023-10-02T14:03:02Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Synergistic Integration of Large Language Models and Cognitive
Architectures for Robust AI: An Exploratory Analysis [12.9222727028798]
本稿では、知的行動を示す人工知能エージェントの開発に使用される2つのAIサブセクタの統合について考察する:大規模言語モデル(LLM)と認知アーキテクチャ(CA)である。
我々は3つの統合的アプローチを提案し、それぞれ理論モデルに基づいて、予備的な経験的証拠によって支持される。
これらのアプローチは、LSMとCAの長所を活用すると同時に、弱点を軽減し、より堅牢なAIシステムの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2023-08-18T21:42:47Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。