論文の概要: Stop saying LLM: Large Discourse Models (LDM) and Artificial Discursive Agent (ADA)?
- arxiv url: http://arxiv.org/abs/2512.19117v1
- Date: Mon, 22 Dec 2025 07:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.661688
- Title: Stop saying LLM: Large Discourse Models (LDM) and Artificial Discursive Agent (ADA)?
- Title(参考訳): LLM: Large Discourse Models (LDM) and Artificial Discursive Agent (ADA)?
- Authors: Amar Lakel,
- Abstract要約: 本稿では,「大規模言語モデル」を代替した大規模生成モデルの解析の変遷を提案する。
提案プログラムは,現代社会空間における「ファシケーション/フィーア」の二分法を,現代社会空間における人工散布剤の配置・使用・制限を行う公試・手続きに置き換えることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an epistemological shift in the analysis of large generative models, replacing the category ''Large Language Models'' (LLM) with that of ''Large Discourse Models'' (LDM), and then with that of Artificial Discursive Agent (ADA). The theoretical framework is based on an ontological triad distinguishing three regulatory instances: the apprehension of the phenomenal regularities of the referential world, the structuring of embodied cognition, and the structural-linguistic sedimentation of the utterance within a socio-historical context. LDMs, operating on the product of these three instances (the document), model the discursive projection of a portion of human experience reified by the learning corpus. The proposed program aims to replace the ''fascination/fear'' dichotomy with public trials and procedures that make the place, uses, and limits of artificial discursive agents in contemporary social space decipherable, situating this approach within a perspective of governance and co-regulation involving the State, industry, civil society, and academia.
- Abstract(参考訳): 本稿では,「Large Language Models」 (LLM) を「Large Discourse Models」 (LDM) に置き換え,さらに「Actificial Disursive Agent」 (ADA) に置き換えた。
この理論の枠組みは、3つの規制事例を区別する存在論的三項に基づいており、すなわち、参照世界の現象的規則性の理解、具体的認知の構造化、社会史的文脈における発話の構造的言語的沈降である。
LDMはこれらの3つのインスタンス(文書)の製品上で動作し、学習コーパスによって強化された人間の経験の一部の分散投影をモデル化する。
提案プログラムは, 国家, 産業, 市民社会, アカデミアを包含する統治・共規制の観点から, 現代社会空間における人工的解凍剤の配置, 使用, 使用限界を規定する公試・手続きに置き換えることを目的としている。
関連論文リスト
- A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - How Good are Foundation Models in Step-by-Step Embodied Reasoning? [79.15268080287505]
身体的エージェントは、安全で空間的に整合性があり、文脈に根ざした決定をしなければならない。
大規模マルチモーダルモデルの最近の進歩は、視覚的理解と言語生成において有望な能力を示している。
私たちのベンチマークには、10のタスクと8のエボディメントにまたがる詳細なステップバイステップ推論を備えた1.1k以上のサンプルが含まれています。
論文 参考訳(メタデータ) (2025-09-18T17:56:30Z) - The 1st International Workshop on Disentangled Representation Learning for Controllable Generation (DRL4Real): Methods and Results [132.86866727471093]
本稿では,ICCV 2025と共同で開催されている制御可能生成のための分散表現学習(DRL4Real)の第1回国際ワークショップをレビューする。
DRL4Realは、制御可能生成、モデルの堅牢性、解釈可能性、一般化の進歩を探究するなど、実用的な応用におけるDRL手法の評価に重点を置いている。
ワークショップでは、新しい誘導バイアス(言語など)の統合、DRLへの拡散モデルの適用、3D認識のゆがみ、自律運転や脳波分析のような専門分野へのDRLの拡張など、幅広いトピックをカバーする9つの論文を受理した。
論文 参考訳(メタデータ) (2025-08-15T16:35:41Z) - Pragmatics beyond humans: meaning, communication, and LLMs [0.0]
本論文は,言語が行動の道具として機能する動的インタフェースとして,プラグマティクスを再認識する。
論文は、この理解をさらに洗練し、方法論的に再考する必要があると主張している。
論文 参考訳(メタデータ) (2025-08-08T09:34:41Z) - Modeling Open-World Cognition as On-Demand Synthesis of Probabilistic Models [93.1043186636177]
我々は、人々が分散表現と象徴表現の組み合わせを使って、新しい状況に合わせた見知らぬ精神モデルを構築するという仮説を探求する。
モデル合成アーキテクチャ」という概念の計算的実装を提案する。
我々は、新しい推論データセットに基づく人間の判断のモデルとして、MSAを評価した。
論文 参考訳(メタデータ) (2025-07-16T18:01:03Z) - Large Language Models as Quasi-crystals: Coherence Without Repetition in Generative Text [0.0]
エッセイは大規模言語モデル(LLM)と準結晶の類似性を提案し、局所的な制約によって生成される周期的反復を伴わないグローバルコヒーレンスを示すシステムである。
準結晶の歴史に基づいて、生成言語における代替的なコヒーレンスモード、すなわち反復や象徴的意図を伴わない制約に基づく組織を強調している。
このエッセイは、既存のメソッドを拒絶するのではなく、意味論よりも構造に根ざした解釈の新たな軸を提案することによって、大きな言語モデルに関する現在の議論を再考することを目的としている。
論文 参考訳(メタデータ) (2025-04-16T11:27:47Z) - Generative Emergent Communication: Large Language Model is a Collective World Model [11.224401802231707]
LLM(Large Language Models)は、広範囲の世界の知識を捉える素晴らしい能力を示している。
本研究では,集合的世界モデル仮説を導入することによって,新たな理論解を提案する。
論文 参考訳(メタデータ) (2024-12-31T02:23:10Z) - Language Models as Semiotic Machines: Reconceptualizing AI Language Systems through Structuralist and Post-Structuralist Theories of Language [0.0]
本稿では,大規模言語モデル(LLM)を理解するための新しいフレームワークを提案する。
LLMは言語自体のモデルとして理解されるべきであり、ジャックの「書き方」(l'ecriture)の概念と一致している、と私は主張する。
私は、Sausure の Saussure 批判を LLM でモデル化されたオブジェクトとして位置づけ、機械の 'mind' を統計的近似として提供します。
論文 参考訳(メタデータ) (2024-10-16T21:45:54Z) - Theoretical and Methodological Framework for Studying Texts Produced by Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)の研究における概念的,方法論的,技術的課題について述べる。
LLMを基質とし、モデルがシミュレートするエンティティを区別する理論的な枠組みの上に構築されている。
論文 参考訳(メタデータ) (2024-08-29T17:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。