論文の概要: Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI
- arxiv url: http://arxiv.org/abs/2505.20304v1
- Date: Sun, 18 May 2025 16:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 02:03:59.118649
- Title: Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI
- Title(参考訳): Opacity as a feature, not a Flaw: The LoBOX Governance Eic for Role-Sensitive Explainability and Institutional Trust in AI
- Authors: Francisco Herrera, Reyes Calderón,
- Abstract要約: 本稿では,人工知能(AI)の不透明性を管理するために,LoBOX (Lack of Belief: Opacity & eXplainability)ガバナンス倫理を紹介する。
不透明さを設計上の欠陥として扱うのではなく、LoBOXはロールキャリブレーションされた説明と制度的な説明責任によって倫理的に管理できる条件として定義している。
- 参考スコア(独自算出の注目度): 9.696149761543573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces LoBOX (Lack of Belief: Opacity \& eXplainability) governance ethic structured framework for managing artificial intelligence (AI) opacity when full transparency is infeasible. Rather than treating opacity as a design flaw, LoBOX defines it as a condition that can be ethically governed through role-calibrated explanation and institutional accountability. The framework comprises a three-stage pathway: reduce accidental opacity, bound irreducible opacity, and delegate trust through structured oversight. Integrating the RED/BLUE XAI model for stakeholder-sensitive explanation and aligned with emerging legal instruments such as the EU AI Act, LoBOX offers a scalable and context-aware alternative to transparency-centric approaches. Reframe trust not as a function of complete system explainability, but as an outcome of institutional credibility, structured justification, and stakeholder-responsive accountability. A governance loop cycles back to ensure that LoBOX remains responsive to evolving technological contexts and stakeholder expectations, to ensure the complete opacity governance. We move from transparency ideals to ethical governance, emphasizing that trustworthiness in AI must be institutionally grounded and contextually justified. We also discuss how cultural or institutional trust varies in different contexts. This theoretical framework positions opacity not as a flaw but as a feature that must be actively governed to ensure responsible AI systems.
- Abstract(参考訳): 本稿では,完全な透明性が実現不可能な人工知能(AI)不透明性を管理するためのガバナンス倫理的枠組みであるLoBOXを紹介する。
不透明さを設計上の欠陥として扱うのではなく、LoBOXはロールキャリブレーションされた説明と制度的な説明責任によって倫理的に管理できる条件として定義している。
フレームワークは、偶発的不透明度を低減し、既約不透明度を制限し、構造化された監視を通じて信頼を委譲する3段階の経路を含む。
利害関係者に敏感な説明のためにRED/BLUE XAIモデルを統合し、EU AI Actのような新たな法的手段と整合させることで、LoBOXは透明性中心のアプローチに代わる、スケーラブルでコンテキスト対応の選択肢を提供する。
リフレームは、完全なシステム説明可能性の関数ではなく、制度的信頼性、構造化された正当化、利害関係者対応説明責任の結果として信頼される。
ガバナンスループは、完全な不透明なガバナンスを保証するために、LoBOXが進化する技術的コンテキストとステークホルダーの期待に反応し続けることを保証するために遡る。
私たちは透明性の理想から倫理的なガバナンスへと移行し、AIの信頼性は制度的に基礎付けられ、文脈的に正当化されなければならないことを強調します。
また、文化的・制度的な信頼の相違についても論じる。
この理論的枠組みは、不透明さを欠陥ではなく、責任あるAIシステムを保証するために積極的に管理されなければならない機能として位置づけている。
関連論文リスト
- Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - All You Need for Counterfactual Explainability Is Principled and Reliable Estimate of Aleatoric and Epistemic Uncertainty [27.344785490275864]
我々は透明性研究が人工知能の基本的な概念の多くを見落としていると主張している。
本質的に透明なモデルは、人間中心の説明的洞察の恩恵を受けることができる。
高度なレベルでは、人工知能の基礎を透明性研究に統合することは、より信頼性が高く、堅牢で、理解可能な予測モデルを生み出すことを約束する。
論文 参考訳(メタデータ) (2025-02-24T09:38:31Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。