論文の概要: Epistemic Trade-Off: An Analysis of the Operational Breakdown and Ontological Limits of "Certainty-Scope" in AI
- arxiv url: http://arxiv.org/abs/2508.19304v1
- Date: Tue, 26 Aug 2025 05:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.364465
- Title: Epistemic Trade-Off: An Analysis of the Operational Breakdown and Ontological Limits of "Certainty-Scope" in AI
- Title(参考訳): 疫学トレードオフ:AIにおける「確実性スコープ」の運用中断とオントロジー限界の分析
- Authors: Generoso Immediato,
- Abstract要約: フロリディの予想は、AIシステムにおける確実性とスコープの基本的なトレードオフについて、説得力のある直観を提供する。
本稿では,工学設計と規制決定への洞察を提供するという予想の野心が,2つの重要な要因によって制約されていることを論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Floridi's conjecture offers a compelling intuition about the fundamental trade-off between certainty and scope in artificial intelligence (AI) systems. This exploration remains crucial, not merely as a philosophical exercise, but as a potential compass for guiding AI investments, particularly in safety-critical industrial domains where the level of attention will surely be higher in the future. However, while intellectually coherent, its formalization ultimately freezes this insight into a suspended epistemic truth, resisting operationalization within real-world systems. This paper is a result of an analysis arguing that the conjecture's ambition to provide insights to engineering design and regulatory decision-making is constrained by two critical factors: first, its reliance on incomputable constructs - rendering it practically unactionable and unverifiable; second, its underlying ontological assumption of AI systems as self-contained epistemic entities - separating it from the intricate and dynamic socio-technical environments in which knowledge is co-constructed. We conclude that this dual breakdown - an epistemic closure deficit and an embeddedness bypass - prevents the conjecture from transitioning into a computable and actionable framework suitable for informing the design, deployment, and governance of real-world AI hybrid systems. In response, we propose a contribution to the framing of Floridi's epistemic challenge, addressing the inherent epistemic burdens of AI within complex human-centric domains.
- Abstract(参考訳): フロリディの予想は、人工知能(AI)システムにおける確実性とスコープの基本的なトレードオフについて、説得力のある直観を与える。
この調査は哲学的なエクササイズとしてだけでなく、AI投資を導くための潜在的なコンパスとして、特に将来注目されるレベルが確実に高くなる安全クリティカルな産業領域において、依然として不可欠である。
しかし、知的コヒーレントであるにもかかわらず、その形式化は最終的にこの洞察を停止された疫学の真実に凍結させ、現実世界のシステム内での運用に抵抗する。
本論文は, 工学設計と規制決定への洞察を提供するという予想の野心は, 計算不能な構成に頼っていること, 現実的に動作不能で検証不可能であること, 知識が共構築される複雑でダイナミックな社会技術的環境から切り離されていること, という2つの重要な要因によって制約されていることを論じる分析の結果である。
この二重破壊 - 疫学的なクロージャ障害と組込みバイパス - は、現実のAIハイブリッドシステムの設計、展開、管理を行うのに適した計算可能で実行可能なフレームワークに移行することを妨げると結論付けている。
これに対し、複雑な人間中心領域におけるAIの固有の疫学的負担に対処し、フロリジの疫学的挑戦のフレーミングへの貢献を提案する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Conjecture on a Fundamental Trade-Off between Certainty and Scope in Symbolic and Generative AI [0.0]
論文では、AIシステムにおける証明可能な正しさと広範なデータマッピング能力の基本的なトレードオフを定式化する予想を紹介している。
この暗黙のトレードオフを明確化し、厳密な検証にオープンにすることで、この予想は、エンジニアリングの野望とAIに対する哲学的な期待の両方を大きく変えた。
論文 参考訳(メタデータ) (2025-06-11T19:18:13Z) - Rational Superautotrophic Diplomacy (SupraAD); A Conceptual Framework for Alignment Based on Interdisciplinary Findings on the Fundamentals of Cognition [0.0]
ラショナル超独立外交(Rational Superautotrophic Diplomacy, SupraAD)は、アライメントのための理論的、学際的な概念的枠組みである。
認知システム分析と器質的合理性モデリングに着目する。
SupraADは、AIより前の課題としてアライメントを再構築し、十分に複雑で協調的なインテリジェンスを損なう。
論文 参考訳(メタデータ) (2025-06-03T17:28:25Z) - Artificial Expert Intelligence through PAC-reasoning [21.91294369791479]
人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
論文 参考訳(メタデータ) (2024-12-03T13:25:18Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。