論文の概要: Epistemological Fault Lines Between Human and Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2512.19466v1
- Date: Mon, 22 Dec 2025 15:20:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.801156
- Title: Epistemological Fault Lines Between Human and Artificial Intelligence
- Title(参考訳): 人間と人工知能のエピストロジー断層線
- Authors: Walter Quattrociocchi, Valerio Capraro, Matjaž Perc,
- Abstract要約: 人間と機械の出力の明確な一致は、どのように判断が生成されるかにおいて、より深い構造的ミスマッチを隠蔽していることが示される。
LLMはエージェントではなくパターン補完システムであり、言語遷移の高次元グラフのウォーキングとして公式に記述できる。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are widely described as artificial intelligence, yet their epistemic profile diverges sharply from human cognition. Here we show that the apparent alignment between human and machine outputs conceals a deeper structural mismatch in how judgments are produced. Tracing the historical shift from symbolic AI and information filtering systems to large-scale generative transformers, we argue that LLMs are not epistemic agents but stochastic pattern-completion systems, formally describable as walks on high-dimensional graphs of linguistic transitions rather than as systems that form beliefs or models of the world. By systematically mapping human and artificial epistemic pipelines, we identify seven epistemic fault lines, divergences in grounding, parsing, experience, motivation, causal reasoning, metacognition, and value. We call the resulting condition Epistemia: a structural situation in which linguistic plausibility substitutes for epistemic evaluation, producing the feeling of knowing without the labor of judgment. We conclude by outlining consequences for evaluation, governance, and epistemic literacy in societies increasingly organized around generative AI.
- Abstract(参考訳): 大規模言語モデル(LLM)は人工知能として広く説明されているが、そのエピステマティックなプロファイルは人間の認識から大きく分かれている。
ここでは、人間と機械の出力が明らかに一致していることが、判断の仕方において、より深い構造的ミスマッチを隠していることを示す。
象徴的AIや情報フィルタリングシステムから大規模生成型トランスフォーマーへの歴史的シフトを辿り、LLMは疫学的なエージェントではなく、確率的パターン補完システムであり、世界の信念やモデルを形成するシステムではなく、言語遷移の高次元グラフのウォーキングとして公式に記述できる、と論じる。
ヒトと人工のてんかんのパイプラインを体系的にマッピングすることにより、7つのてんかんの断層線、接地、解析、経験、動機づけ、因果推論、メタ認知、価値を同定する。
本研究は,言語学的妥当性がてんかん評価に代わる構造的状況であるてんかん(てんかん)症(てんかん)とよばれる。
生成AIを中心に組織化されつつある社会における評価、ガバナンス、疫学リテラシーの結果の概要をまとめて結論付ける。
関連論文リスト
- Plausibility as Failure: How LLMs and Humans Co-Construct Epistemic Error [0.0]
この研究は、異なる形のてんかんが出現し、マスクされ、人間のAI相互作用に許容されるかを調べる。
評価者はしばしば、正確性、妥当性、バイアス、基底性、一貫性などの基準を混同し、人間の判断が分析的区別を形と流布によって形づくられた直観に分解することを示す。
この研究は、LLMアセスメント、デジタルリテラシー、そして信頼できる人間AIコミュニケーションの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2025-12-18T16:45:29Z) - Embodied AI: From LLMs to World Models [65.68972714346909]
人工知能(AI)は、人工知能(AGI)を実現するためのインテリジェントシステムパラダイムである。
近年のLarge Language Models(LLMs)とWorld Models(WMs)のブレークスルーは、AIを具現化する上で大きな注目を集めている。
論文 参考訳(メタデータ) (2025-09-24T11:37:48Z) - Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction [4.022364531869169]
本稿では,ヒトと生成型AIシステムとの相互作用から生じる新しい認知・現象学的パターンであるNoosemiaを紹介し,形式化する。
特定の条件下では、ユーザが意図性、エージェンシー、さらにはシステムの内部性をどう評価するかを説明するための多分野のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T17:10:08Z) - A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure [0.0]
AIに関連する疫学上の不正はますます懸念される。
機械学習モデルに関して、不正は多様なソースを持つことができる。
これは、エージェントが集団的感覚形成の能力で行う不正である「緊急殺生」の自動化を不正にしていると私は主張する。
論文 参考訳(メタデータ) (2025-04-10T07:54:47Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。