論文の概要: Epistemic Trade-Off: An Analysis of the Operational Breakdown and Ontological Limits of "Certainty-Scope" in AI
- arxiv url: http://arxiv.org/abs/2508.19304v2
- Date: Sat, 18 Oct 2025 11:42:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:09.522234
- Title: Epistemic Trade-Off: An Analysis of the Operational Breakdown and Ontological Limits of "Certainty-Scope" in AI
- Title(参考訳): 疫学トレードオフ:AIにおける「確実性スコープ」の運用中断とオントロジー限界の分析
- Authors: Generoso Immediato,
- Abstract要約: 最近発表された「確実性顕微鏡」予想は、人工知能(AI)システムにおける固有のトレードオフについて、説得力のある洞察を与えてくれる。
本論では,工学設計と規制決定に関する洞察を与えるための予想の目的は,2つの基本的な要因によって制限されていると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recently published "certainty-scope" conjecture offers a compelling insight into the inherent trade-off present within artificial intelligence (AI) systems. As general research, this investigation remains vital as a philosophical undertaking and a potential guide for directing AI investments, design, and deployment, especially in safety-critical and mission-critical domains where risk levels are substantially elevated. While maintaining intellectual coherence, its formalization ultimately consolidates this insight into a suspended epistemic truth, which resists operational implementation within practical systems. This paper argues that the conjecture's objective to furnish insights for engineering design and regulatory decision-making is limited by two fundamental factors: first, its dependence on incomputable constructs and its failure to capture the generality factors of AI, rendering it practically unimplementable and unverifiable; second, its foundational ontological assumption of AI systems as self-contained epistemic entities, distancing it from the complex and dynamic socio-technical environments where knowledge is co-constructed. We conclude that this dual breakdown - an epistemic closure deficit and an embeddedness bypass - hinders the conjecture's transition to a practical and actionable framework suitable for informing and guiding AI deployments. In response, we point towards a possible framing of the epistemic challenge, emphasizing the inherent epistemic burdens of AI within complex human-centric domains.
- Abstract(参考訳): 最近発表された「確実性スコープ」予想は、人工知能(AI)システムに固有のトレードオフについて、説得力のある洞察を与えてくれる。
一般的な研究として、この調査は哲学的な取り組みとして、特にリスクレベルが著しく上昇している安全クリティカルかつミッションクリティカルな領域において、AI投資、設計、展開を指示するための潜在的ガイドとして、依然として不可欠である。
知的コヒーレンスを維持しながら、その形式化は最終的にこの洞察を、実用システムにおける運用上の実装に抵抗する停止した疫学の真実に集約する。
第一に、計算不可能な構成物への依存と、AIの一般的な要素を捉えなかったこと、実際は実装不可能で検証不可能であること、第二に、知識が共構築される複雑でダイナミックな社会技術的環境から、AIシステムの自己完結した認識論的仮定を分離することである。
この二重破壊 - てんかんの閉鎖不全と組込みバイパス - は、AIデプロイメントをインフォームし、導くのに適した実用的で実行可能なフレームワークへの移行を妨げると結論付けている。
これに対し、我々は、複雑な人間中心の領域におけるAIの固有のてんかんの負担を強調して、てんかんの難しさを浮き彫りにしている。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Conjecture on a Fundamental Trade-Off between Certainty and Scope in Symbolic and Generative AI [0.0]
論文では、AIシステムにおける証明可能な正しさと広範なデータマッピング能力の基本的なトレードオフを定式化する予想を紹介している。
この暗黙のトレードオフを明確化し、厳密な検証にオープンにすることで、この予想は、エンジニアリングの野望とAIに対する哲学的な期待の両方を大きく変えた。
論文 参考訳(メタデータ) (2025-06-11T19:18:13Z) - Rational Superautotrophic Diplomacy (SupraAD); A Conceptual Framework for Alignment Based on Interdisciplinary Findings on the Fundamentals of Cognition [0.0]
ラショナル超独立外交(Rational Superautotrophic Diplomacy, SupraAD)は、アライメントのための理論的、学際的な概念的枠組みである。
認知システム分析と器質的合理性モデリングに着目する。
SupraADは、AIより前の課題としてアライメントを再構築し、十分に複雑で協調的なインテリジェンスを損なう。
論文 参考訳(メタデータ) (2025-06-03T17:28:25Z) - Artificial Expert Intelligence through PAC-reasoning [21.91294369791479]
人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
論文 参考訳(メタデータ) (2024-12-03T13:25:18Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。