論文の概要: Large Language Models and Emergence: A Complex Systems Perspective
- arxiv url: http://arxiv.org/abs/2506.11135v1
- Date: Tue, 10 Jun 2025 19:31:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.499838
- Title: Large Language Models and Emergence: A Complex Systems Perspective
- Title(参考訳): 大規模言語モデルと創発:複雑なシステムの視点から
- Authors: David C. Krakauer, John W. Krakauer, Melanie Mitchell,
- Abstract要約: エネルジェンス(Emergence)は、複雑性科学における概念であり、多体系がいかに新しい高レベルな性質を示すかを記述している。
まず、大規模言語モデルが創発的能力を示すという主張を検証し、出現を定量化するためのいくつかのアプローチをレビューし、第二に、LLMが創発的知性を持っているかどうかを問う。
- 参考スコア(独自算出の注目度): 4.828353666660019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emergence is a concept in complexity science that describes how many-body systems manifest novel higher-level properties, properties that can be described by replacing high-dimensional mechanisms with lower-dimensional effective variables and theories. This is captured by the idea "more is different". Intelligence is a consummate emergent property manifesting increasingly efficient -- cheaper and faster -- uses of emergent capabilities to solve problems. This is captured by the idea "less is more". In this paper, we first examine claims that Large Language Models exhibit emergent capabilities, reviewing several approaches to quantifying emergence, and secondly ask whether LLMs possess emergent intelligence.
- Abstract(参考訳): 創発性(英: Emergence)とは、高次元のメカニズムを低次元の有効変数や理論に置き換えることで記述できる、新しい高レベルな特性を多体系がどのように表すかを記述する複雑性科学の概念である。
これは「もっと違う」という考え方にとらわれている。
インテリジェンス(人工知能)は,問題の解決に創発的能力を使用する,より効率的で,より安価で,より高速な,緊急性を示す存在である。
これは「無はそれ以上」という考え方にとらわれている。
本稿では、まず、大規模言語モデルが創発的能力を示すという主張を検証し、出現を定量化するためのいくつかのアプローチをレビューし、第二に、LLMが創発的知性を持っているかどうかを問う。
関連論文リスト
- The Society of HiveMind: Multi-Agent Optimization of Foundation Model Swarms to Unlock the Potential of Collective Intelligence [6.322831694506287]
複数のAIファンデーションモデル間のインタラクションをオーケストレーションするフレームワークを開発する。
このフレームワークは、主に現実世界の知識を必要とするタスクに対して、無視可能なメリットを提供する。
一方、我々は、集中的な論理的推論を必要とするタスクの大幅な改善について言及する。
論文 参考訳(メタデータ) (2025-03-07T14:45:03Z) - Visual-O1: Understanding Ambiguous Instructions via Multi-modal Multi-turn Chain-of-thoughts Reasoning [53.45295657891099]
本稿では,マルチモーダルなマルチターン・チェーン・オブ・シークレット・推論・フレームワークであるVisual-O1を提案する。
人間のマルチモーダルなマルチターン推論をシミュレートし、高度にインテリジェントなモデルに即時体験を提供する。
私たちの研究は、不確実性と曖昧さのある現実のシナリオにおいて、人工知能が人間のように機能する可能性を強調します。
論文 参考訳(メタデータ) (2024-10-04T11:18:41Z) - Intelligence at the Edge of Chaos [24.864145150537855]
ルールベースのシステムの複雑さが、これらのルールを予測するために訓練されたモデルの能力にどのように影響するかを検討する。
以上の結果から,複雑性の高いルールは,より優れたインテリジェンスを示すモデルにつながることが判明した。
我々は、知性は複雑さを予測する能力から生じ、知性を生み出すには複雑さにのみ暴露する必要があると推測する。
論文 参考訳(メタデータ) (2024-10-03T14:42:34Z) - SciAgents: Automating scientific discovery through multi-agent intelligent graph reasoning [0.0]
人工知能の鍵となる課題は、科学的理解を自律的に進めるシステムを作ることである。
3つのコア概念を活用するアプローチであるSciAgentsを提案する。
この枠組みは研究仮説を自律的に生成し、基礎となるメカニズム、設計原則、予期せぬ材料特性を解明する。
我々のケーススタディでは、生成AI、オントロジ表現、マルチエージェントモデリングを組み合わせて、生物学的システムに似た知能の群を活用できるスケーラブルな能力を実証している。
論文 参考訳(メタデータ) (2024-09-09T12:25:10Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - On the Discussion of Large Language Models: Symmetry of Agents and
Interplay with Prompts [51.3324922038486]
本稿では,プロンプトの相互作用と議論機構の実証結果について報告する。
また、コンピュートとマージに基づくスケーラブルな議論機構も提案している。
論文 参考訳(メタデータ) (2023-11-13T04:56:48Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。