論文の概要: Monotropic Artificial Intelligence: Toward a Cognitive Taxonomy of Domain-Specialized Language Models
- arxiv url: http://arxiv.org/abs/2603.00350v1
- Date: Fri, 27 Feb 2026 22:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.151882
- Title: Monotropic Artificial Intelligence: Toward a Cognitive Taxonomy of Domain-Specialized Language Models
- Title(参考訳): モノトロピック人工知能 : ドメイン特化言語モデルの認知分類に向けて
- Authors: Antonio de Sousa Leitão Filho, Allan Kardec Duailibe Barros Filho, Fabrício Saul Lima, Selby Mykael Lima dos Santos, Rejani Bandeira Vieira Sousa,
- Abstract要約: 我々は、厳格な特殊化は制限ではなく、安全クリティカルなアプリケーションに対して異なる利点を持つ代替の認知アーキテクチャであると主張する。
我々の枠組みは、人工知能がAI研究の唯一の正統な願望を構成するという暗黙の仮定に挑戦する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevailing paradigm in artificial intelligence research equates progress with scale: larger models trained on broader datasets are presumed to yield superior capabilities. This assumption, while empirically productive for general-purpose applications, obscures a fundamental epistemological tension between breadth and depth of knowledge. We introduce the concept of \emph{Monotropic Artificial Intelligence} -- language models that deliberately sacrifice generality to achieve extraordinary precision within narrowly circumscribed domains. Drawing on the cognitive theory of monotropism developed to understand autistic cognition, we argue that intense specialization represents not a limitation but an alternative cognitive architecture with distinct advantages for safety-critical applications. We formalize the defining characteristics of monotropic models, contrast them with conventional polytropic architectures, and demonstrate their viability through Mini-Enedina, a 37.5-million-parameter model that achieves near-perfect performance on Timoshenko beam analysis while remaining deliberately incompetent outside its domain. Our framework challenges the implicit assumption that artificial general intelligence constitutes the sole legitimate aspiration of AI research, proposing instead a cognitive ecology in which specialized and generalist systems coexist complementarily.
- Abstract(参考訳): より広いデータセットでトレーニングされたより大きなモデルでは、優れた能力が得られると推定される。
この仮定は、一般用途のために実証的に生産的であるが、広さと知識の深さの間の基本的な認識論的緊張を曖昧にしている。
我々は、狭義の領域内で異常な精度を達成するために、汎用性を故意に犠牲にする言語モデルである「emph{Monotropic Artificial Intelligence}」の概念を導入する。
自閉症の認知を理解するために発達したモノトロピズムの認知理論に基づいて、我々は、過激な特殊化は制限ではなく、安全クリティカルなアプリケーションに対して明確な優位性を持つ代替認知アーキテクチャであると主張する。
我々は、一様モデルの定義特性を定式化し、従来のポリトロピックアーキテクチャと対比し、ティモシェンコビーム解析におけるほぼ完全な性能を実現するミニ・エネディナ(Mini-Enedina)モデルを通して、ドメイン外で意図的に無能なまま、それらの生存性を実証する。
我々の枠組みは、人工知能がAI研究の唯一の正統な願望を構成するという暗黙の仮定に挑戦し、代わりに、専門的でジェネラリスト的なシステムが相補的に共存する認知生態学を提案する。
関連論文リスト
- Shared Nature, Unique Nurture: PRISM for Pluralistic Reasoning via In-context Structure Modeling [11.987225062711692]
PRISMは、動的オンザフライ・エピステミックグラフで大規模言語モデルを拡張するモデルに依存しないシステムである。
3つのクリエイティビティベンチマークにおいて、PRISMは最先端のノベルティを達成し、分布の多様性を著しく拡大する。
以上の結果から,PRISMは標準LPMが誤診した長い尾の診断に成功していることが示された。
論文 参考訳(メタデータ) (2026-02-24T19:38:31Z) - Modularity is the Bedrock of Natural and Artificial Intelligence [51.60091394435895]
モジュラリティは、効率的な学習と強力な一般化能力をサポートするために重要であることが示されている。
ナチュラルインテリジェンスにおけるその役割と、さまざまな異なるように見えるAIサブフィールドでのメリットが証明されているにもかかわらず、モジュラリティはメインストリームのAI研究において比較的過小評価されている。
特に、モジュラリティがもたらす計算上の優位性や、それがいくつかのAI研究領域にまたがるソリューションとして現れる方法、そしてモジュラリティが、自然と人工知能のギャップを埋めるのにどのように役立つかを検討する。
論文 参考訳(メタデータ) (2026-02-21T21:47:09Z) - Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning [57.23345786304694]
予測学習のための枠組みと自己予測を中心とした組込みエージェントを導入する。
マルチエージェント設定では、エージェントが類似したアルゴリズムを実行している他のエージェントについて推論することができる。
我々は、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな埋め込みエージェントについて研究する。
論文 参考訳(メタデータ) (2025-11-27T08:46:48Z) - Is the `Agent' Paradigm a Limiting Framework for Next-Generation Intelligent Systems? [0.0]
エージェント」の概念は人工知能(AI)の研究を深く形作っている。
本稿では,エージェント中心パラダイムの必要性と最適性を再評価する。
論文 参考訳(メタデータ) (2025-09-13T16:11:27Z) - Video Event Reasoning and Prediction by Fusing World Knowledge from LLMs with Vision Foundation Models [10.1080193179562]
現在の理解モデルは「何」を認識するのに優れているが、因果推論や将来の予測のような高いレベルの認知タスクでは不足している。
本稿では,知識駆動型推論コアとして機能するLarge Language Model (LLM)を用いて,視覚の深層認識のための強力なビジョン基礎モデルと融合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-08T09:43:17Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Position: Stop Making Unscientific AGI Performance Claims [6.343515088115924]
人工知能(AI)分野の発展は、人工知能(AGI)の「スパーク」を観察するための「完璧な嵐」を生み出した。
我々は、モデルの潜在空間における有意義なパターンの発見は、AGIを支持する証拠とは見なされないことを議論し、実証的に実証した。
我々は、モデル表現と興味のある変数の間の相関が、モデルが根底にある「真実」の関係について理解していることから「原因」であるとの誤解に対して、AIの方法論的設定と一般的な公開イメージの両方が理想的であると結論付けている。
論文 参考訳(メタデータ) (2024-02-06T12:42:21Z) - Integration of cognitive tasks into artificial general intelligence test
for large models [54.72053150920186]
我々は、認知科学にインスパイアされた人工知能(AGI)テストの包括的な枠組みを提唱する。
認知科学に触発されたAGIテストは、結晶化インテリジェンス、流体インテリジェンス、社会インテリジェンス、エンボディドインテリジェンスを含む、すべてのインテリジェンスファセットを含んでいる。
論文 参考訳(メタデータ) (2024-02-04T15:50:42Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Beyond Interpretable Benchmarks: Contextual Learning through Cognitive
and Multimodal Perception [0.0]
この研究は、チューリングテストがコンピュータシステムを人為的に形作る試みであると誤解されていることを主張する。
通訳性に欠けるにもかかわらず、汎用知能の基盤として暗黙の学習を強調している。
論文 参考訳(メタデータ) (2022-12-04T08:30:04Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。