論文の概要: In Dialogue with Intelligence: Rethinking Large Language Models as Collective Knowledge
- arxiv url: http://arxiv.org/abs/2505.22767v2
- Date: Fri, 30 May 2025 16:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 15:03:35.3361
- Title: In Dialogue with Intelligence: Rethinking Large Language Models as Collective Knowledge
- Title(参考訳): インテリジェンスと対話: 大規模言語モデルを集合的知識として再考する
- Authors: Eleni Vasilaki,
- Abstract要約: 大規模言語モデル(LLM)は通常、アーキテクチャ、振る舞い、トレーニングデータレンズを通して分析される。
この記事では、理論的かつ経験的再フレーミングについて述べる。 LLMs as dynamic instantiations of Collective Human Knowledge (CK)。
そこで我々は,創発的対話パターン,微調整の意味,協調の概念,人間と機械の認知の相互強化について検討した。
- 参考スコア(独自算出の注目度): 2.50194939587674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are typically analysed through architectural, behavioural, or training-data lenses. This article offers a theoretical and experiential re-framing: LLMs as dynamic instantiations of Collective human Knowledge (CK), where intelligence is evoked through dialogue rather than stored statically. Drawing on concepts from neuroscience and AI, and grounded in sustained interaction with ChatGPT-4, I examine emergent dialogue patterns, the implications of fine-tuning, and the notion of co-augmentation: mutual enhancement between human and machine cognition. This perspective offers a new lens for understanding interaction, representation, and agency in contemporary AI systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は通常、アーキテクチャ、振る舞い、トレーニングデータレンズを通して分析される。
LLMは集団的人間の知識(CK)の動的インスタンス化であり、そこでは知性は静的に記憶されるのではなく対話によって引き起こされる。
神経科学とAIの概念を基礎として,ChatGPT-4との持続的相互作用を基礎として,創発的対話パターン,微調整の意味,および協調強化の概念,人間と機械の認知の相互強化について検討する。
この視点は、現代のAIシステムにおけるインタラクション、表現、エージェンシーを理解するための新しいレンズを提供する。
関連論文リスト
- Discovering Conceptual Knowledge with Analytic Ontology Templates for Articulated Objects [42.9186628100765]
我々は,概念レベルでの動作を通じて,機械知能に類似の能力を持たせることを目指している。
AOT駆動のアプローチは、3つの重要な観点で利益をもたらす。
論文 参考訳(メタデータ) (2024-09-18T04:53:38Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - DeepThought: An Architecture for Autonomous Self-motivated Systems [1.6385815610837167]
大規模言語モデル(LLM)の内部アーキテクチャは、本質的な動機づけ、エージェンシー、あるいはある程度の意識を支持できない。
我々は,LLMを認知言語エージェントのアーキテクチャに統合し,エージェントや自己モチベーション,メタ認知の特徴を表現できるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-14T21:20:23Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Emotion Recognition in Conversation using Probabilistic Soft Logic [17.62924003652853]
会話における感情認識(英: emotion recognition in conversation、ERC)とは、2つ以上の発話を含む会話に焦点を当てた感情認識のサブフィールドである。
我々は,宣言的テンプレート言語である確率的ソフト論理(PSL)にアプローチを実装した。
PSLは、ニューラルモデルからPSLモデルへの結果の取り込みのための機能を提供する。
提案手法を最先端の純粋ニューラルネットワークERCシステムと比較した結果,約20%の改善が得られた。
論文 参考訳(メタデータ) (2022-07-14T23:59:06Z) - Enabling Harmonious Human-Machine Interaction with Visual-Context
Augmented Dialogue System: A Review [40.49926141538684]
Visual Context Augmented Dialogue System (VAD) は、マルチモーダル情報を知覚し理解することで人間とコミュニケーションする能力を持つ。
VADは、エンゲージメントとコンテキスト対応の応答を生成する可能性を秘めている。
論文 参考訳(メタデータ) (2022-07-02T09:31:37Z) - Neurosymbolic AI for Situated Language Understanding [13.249453757295083]
我々は,これらの学習課題に対する解法として,計算位置定位法が有効であると主張している。
我々のモデルは、古典的なAIの考えをニューロシンボリックインテリジェンス(英語版)の枠組みに再組み入れている。
我々は、さまざまなAI学習課題に対して、位置情報が多様なデータと複数のレベルのモデリングを提供する方法について論じる。
論文 参考訳(メタデータ) (2020-12-05T05:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。