論文の概要: Epistemic Scarcity: The Economics of Unresolvable Unknowns
- arxiv url: http://arxiv.org/abs/2507.01483v1
- Date: Wed, 02 Jul 2025 08:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.110606
- Title: Epistemic Scarcity: The Economics of Unresolvable Unknowns
- Title(参考訳): てんかんの経済 : 未解決の未知の経済学
- Authors: Craig S Wright,
- Abstract要約: 我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a praxeological analysis of artificial intelligence and algorithmic governance, challenging assumptions about the capacity of machine systems to sustain economic and epistemic order. Drawing on Misesian a priori reasoning and Austrian theories of entrepreneurship, we argue that AI systems are incapable of performing the core functions of economic coordination: interpreting ends, discovering means, and communicating subjective value through prices. Where neoclassical and behavioural models treat decisions as optimisation under constraint, we frame them as purposive actions under uncertainty. We critique dominant ethical AI frameworks such as Fairness, Accountability, and Transparency (FAT) as extensions of constructivist rationalism, which conflict with a liberal order grounded in voluntary action and property rights. Attempts to encode moral reasoning in algorithms reflect a misunderstanding of ethics and economics. However complex, AI systems cannot originate norms, interpret institutions, or bear responsibility. They remain opaque, misaligned, and inert. Using the concept of epistemic scarcity, we explore how information abundance degrades truth discernment, enabling both entrepreneurial insight and soft totalitarianism. Our analysis ends with a civilisational claim: the debate over AI concerns the future of human autonomy, institutional evolution, and reasoned choice. The Austrian tradition, focused on action, subjectivity, and spontaneous order, offers the only coherent alternative to rising computational social control.
- Abstract(参考訳): 本稿では,人工知能とアルゴリズムガバナンスの実践的分析を行い,機械システムの経済的・疫学的な秩序を維持する能力に関する仮定に挑戦する。
Misesianの先駆的推論とオーストリアの起業家主義の理論に基づいて、我々はAIシステムは経済調整の中核的な機能、すなわち終末の解釈、手段の発見、価格による主観的価値の伝達ができないと論じている。
新古典的モデルと行動モデルは、決定を制約の下での最適化として扱うが、我々はそれらを不確実性の下での純粋行動とみなす。
我々は、公正性、説明責任、透明性(FAT)のような支配的な倫理的AIフレームワークを、自発的な行動と財産権に基づく自由主義的秩序と対立する構成主義的合理主義の拡張として批判する。
アルゴリズムにおける道徳的推論を符号化しようとする試みは、倫理と経済学の誤解を反映している。
複雑なAIシステムは、規範を創出したり、制度を解釈したり、責任を負ったりすることはできない。
それらは不透明であり、不整合であり、不合理である。
エピステミックな不足という概念を用いて、情報豊かさが真理の認知を低下させ、起業家的洞察とソフトな全体主義の両方を可能にするかを探求する。
我々の分析は文明的な主張で終わる:AIに関する議論は、人間の自律性、制度的な進化、そして合理的な選択の将来に関するものである。
行動、主観性、自然秩序に焦点をあてたオーストリアの伝統は、計算的社会統制の増大に対する唯一のコヒーレントな代替手段を提供する。
関連論文リスト
- Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、人工知能システムが教育、軍事活動、デジタル談話の機関的制御を統合する方法を理論的に論じている。
インテリジェントシステムは、効率性と中立性という概念の下で階層構造を正規化する方法を分析する。
ケーススタディには、教育における自動プロクター、戦争における自律的ターゲティング、社会プラットフォームにおけるアルゴリズムによるキュレーションなどが含まれる。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Artificial Intelligence (AI) and the Relationship between Agency, Autonomy, and Moral Patiency [0.0]
私たちは、現在のAIシステムは高度に洗練されていますが、真のエージェンシーと自律性は欠如しています。
我々は、意識のない限られた形態の人工道徳機関を達成できる未来のシステムの可能性を排除することはできない。
論文 参考訳(メタデータ) (2025-04-11T03:48:40Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。