論文の概要: Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI
- arxiv url: http://arxiv.org/abs/2603.03971v1
- Date: Wed, 04 Mar 2026 12:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.290523
- Title: Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI
- Title(参考訳): 持続性てんかん治療 : 責任あるAIのためのブラウワーア・アサーティビリティ・コントラスト
- Authors: Michael Jülich,
- Abstract要約: 責任を負うAIに対して,Brouwerにインスパイアされたアサービビリティ制約を提案する。
ハイテイクドメインでは、公に検査可能でコンテスト可能な権利証明書を提供する場合に限り、システムはクレームを主張または否定することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI can convert uncertainty into authoritative-seeming verdicts, displacing the justificatory work on which democratic epistemic agency depends. As a corrective, I propose a Brouwer-inspired assertibility constraint for responsible AI: in high-stakes domains, systems may assert or deny claims only if they can provide a publicly inspectable and contestable certificate of entitlement; otherwise they must return "Undetermined". This constraint yields a three-status interface semantics (Asserted, Denied, Undetermined) that cleanly separates internal entitlement from public standing while connecting them via the certificate as a boundary object. It also produces a time-indexed entitlement profile that is stable under numerical refinement yet revisable as the public record changes. I operationalize the constraint through decision-layer gating of threshold and argmax outputs, using internal witnesses (e.g., sound bounds or separation margins) and an output contract with reason-coded abstentions. A design lemma shows that any total, certificate-sound binary interface already decides the deployed predicate on its declared scope, so "Undetermined" is not a tunable reject option but a mandatory status whenever no forcing witness is available. By making outputs answerable to challengeable warrants rather than confidence alone, the paper aims to preserve epistemic agency where automated speech enters public justification.
- Abstract(参考訳): 生成的AIは、不確実性を権威的な判断に変換することができ、民主的な疫学エージェンシーが依存する正当化的な作業に取って代わる。
ハイテイクなドメインでは、システムは、公的に検査可能で、挑戦可能な権利証明を提供することができる場合に限り、クレームを主張または否定することができ、そうでなければ「決定不能」を返さなければならない。
この制約は3つの定型インターフェイスセマンティクス(Asserted, Denied, Undetermined)を生成します。
また、数値的な改良の下で安定しているが、公開記録の変更に伴って修正可能な、タイムインデックス付き権利プロファイルも生成する。
しきい値とargmax出力の判定層ゲーティングによって制約を運用し、内部証人(例えば、音境界や分離マージン)と、合理的に符号化された棄権を伴う出力契約を使用する。
設計補題は、すべての証明書に適合するバイナリインターフェースが、宣言されたスコープでデプロイされた述語をすでに決定していることを示している。
本論文は,自信のみではなく,挑戦可能な令状に応答可能なアウトプットを提供することにより,自動発話が公衆の正当性に入り込むてんかん機関を保全することを目的としている。
関連論文リスト
- Towards Selection as Power: Bounding Decision Authority in Autonomous Agents [0.0]
我々は、認知、選択、行動を独立したドメインに分離し、自律性を主権のベクトルとしてモデル化するガバナンスアーキテクチャを提案する。
変動操作,しきい値ゲーム,フレーミングスキュー,順序付け効果,エントロピー探索を対象とし,複数の規制された金融シナリオを対象としたシステムの評価を行った。
その結果、機械的選択ガバナンスは実装可能であり、監査可能であり、推論能力を維持しながら決定論的結果の獲得を防止することが示されている。
論文 参考訳(メタデータ) (2026-02-16T10:10:47Z) - ADEPT: RL-Aligned Agentic Decoding of Emotion via Evidence Probing Tools -- From Consensus Learning to Ambiguity-Driven Emotion Reasoning [67.22219034602514]
ADEPT(Agentic Decoding of Emotion via Evidence Probing Tools)は,感情認識をマルチターン探索プロセスとして再構成するフレームワークである。
ADEPTはSLLMを進化する候補感情を維持するエージェントに変換し、専用のセマンティックおよび音響探査ツールを適応的に呼び出す。
ADEPTは、ほとんどの設定において主感情の精度を向上し、微妙な感情の特徴を著しく改善することを示した。
論文 参考訳(メタデータ) (2026-02-13T08:33:37Z) - EigenAI: Deterministic Inference, Verifiable Results [3.231493128964671]
EigenAIは、EigenLayerの再試行エコシステムの上に構築された検証可能なAIプラットフォームである。
決定論的大言語モデル(LLM)推論エンジンと、暗号学的に保護された楽観的な再実行プロトコルを組み合わせる。
論文 参考訳(メタデータ) (2026-01-30T04:46:22Z) - Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - The Responsibility Vacuum: Organizational Failure in Scaled Agent Systems [0.0]
現代のCI/CDパイプラインは、責任帰属の構造的失敗を示す。
我々は、この条件を責任掃除機として定義する:決定が起こる状態だが、権限と検証能力が一致しないため、責任は帰属できない。
私たちは、組織が決定境界を明示的に再設計したり、個々の決定からバッチやシステムレベルのオーナシップに再割り当てしない限り、大規模なエージェントデプロイメントでは、責任掃除は目に見えないが永続的な障害モードのままである、と結論付けています。
論文 参考訳(メタデータ) (2026-01-21T15:05:27Z) - The Epistemic Suite: A Post-Foundational Diagnostic Methodology for Assessing AI Knowledge Claims [0.7233897166339268]
本稿では,AI出力の生成と受信の状況を理解するための診断手法であるEpistemic Suiteを紹介する。
真実や虚偽を判断する代わりに、スイートは20個の診断レンズを通して、信頼の洗浄、物語の圧縮、異動した権威、一時的な漂流などのパターンを明らかにする。
論文 参考訳(メタデータ) (2025-09-20T00:29:38Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Auditing AI models for Verified Deployment under Semantic Specifications [65.12401653917838]
AuditAIは、解釈可能な形式検証とスケーラビリティのギャップを埋める。
AuditAIは、画素空間の摂動のみを用いた検証の限界に対処しながら、検証と認定トレーニングのための制御されたバリエーションを得られるかを示す。
論文 参考訳(メタデータ) (2021-09-25T22:53:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。