論文の概要: Operationalising Extended Cognition: Formal Metrics for Corporate Knowledge and Legal Accountability
- arxiv url: http://arxiv.org/abs/2510.16193v2
- Date: Sat, 25 Oct 2025 00:17:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.897175
- Title: Operationalising Extended Cognition: Formal Metrics for Corporate Knowledge and Legal Accountability
- Title(参考訳): 業務拡大認知:企業知識と法的説明責任のための形式的指標
- Authors: Elija Perrier,
- Abstract要約: 企業知識は動的能力として再定義され、情報アクセス手順の効率によって測定できると主張している。
これらの量的指標を、実際の知識、建設的知識、力強い盲目、無謀性の法的基準にマッピングします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Corporate responsibility turns on notions of corporate \textit{mens rea}, traditionally imputed from human agents. Yet these assumptions are under challenge as generative AI increasingly mediates enterprise decision-making. Building on the theory of extended cognition, we argue that in response corporate knowledge may be redefined as a dynamic capability, measurable by the efficiency of its information-access procedures and the validated reliability of their outputs. We develop a formal model that captures epistemic states of corporations deploying sophisticated AI or information systems, introducing a continuous organisational knowledge metric $S_S(\varphi)$ which integrates a pipeline's computational cost and its statistically validated error rate. We derive a thresholded knowledge predicate $\mathsf{K}_S$ to impute knowledge and a firm-wide epistemic capacity index $\mathcal{K}_{S,t}$ to measure overall capability. We then operationally map these quantitative metrics onto the legal standards of actual knowledge, constructive knowledge, wilful blindness, and recklessness. Our work provides a pathway towards creating measurable and justiciable audit artefacts, that render the corporate mind tractable and accountable in the algorithmic age.
- Abstract(参考訳): 企業的責任は、伝統的に人間のエージェントから示唆される企業的責任の概念に変わります。
しかし、これらの仮定は、生成的AIが企業の意思決定をますます仲介しているため、課題にさらされている。
企業知識を動的能力として再定義し、その情報アクセス手順の効率と評価された出力の信頼性によって測定できると論じる。
我々は、高度なAIや情報システムを展開する企業の認識状態をキャプチャーし、パイプラインの計算コストと統計的に検証されたエラー率を統合する継続的組織的知識メトリクス$S_S(\varphi)$を導入し、フォーマルなモデルを構築した。
知識を暗示するために閾値付き知識述語 $\mathsf{K}_S$ と、全体的な能力を測定するためにファームワイドな認識能力指数 $\mathcal{K}_{S,t}$ を導出する。
次に、これらの定量的メトリクスを、実際の知識、建設的知識、激しい盲目、無謀性の法的基準に運用的にマッピングします。
私たちの研究は、測定可能で正当化可能な監査成果物を作成するための道筋を提供しています。
関連論文リスト
- Co-Investigator AI: The Rise of Agentic AI for Smarter, Trustworthy AML Compliance Narratives [2.7295959384567356]
Co-Investigator AIは、SAR(Suspicious Activity Reports)の作成に最適化されたエージェントフレームワークであり、従来の方法よりも大幅に高速で精度が高い。
我々は、SARの草案作成を効率化し、物語を規制上の期待と一致させ、コンプライアンスチームが高次の分析作業に集中できるようにする能力を示します。
論文 参考訳(メタデータ) (2025-09-10T08:16:04Z) - The Sample Complexity of Online Strategic Decision Making with Information Asymmetry and Knowledge Transportability [93.11220429350278]
情報非対称性はマルチエージェントシステムの普及した特徴である。
本論文は,オンライン学習における基本的課題について考察する。知識伝達を必要とする場合でも,共同設立者について学ぶために,非I.d.アクションを適用できるのか?
本稿では,情報非対称性下でのシステム力学を正確に同定し,強化学習における知識伝達の課題を効果的にナビゲートするために,サンプル効率のよいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-11T17:06:57Z) - KnowCoder-V2: Deep Knowledge Analysis [64.63893361811968]
我々は、深い知識分析能力を持つ深層研究を支援するtextbfKnowledgeable textbfDeep textbfResearch (textbfKDR) フレームワークを提案する。
大規模なドメイン関連データをオフラインで体系的な知識にプリプロセスするために、独立した知識組織フェーズを導入する。
そして、オンラインの方法で複雑な知識計算を行うための、新たな推論ステップによって、ディープリサーチを拡張します。
論文 参考訳(メタデータ) (2025-06-07T18:01:25Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Thrust: Adaptively Propels Large Language Models with External Knowledge [69.50273822565363]
大規模事前学習言語モデル(PTLM)は、モデルパラメータの豊富な知識を符号化する。
PTLMの固有の知識は不透明または静的であり、外部の知識を必要とする。
本稿では,外部知識のインスタンスレベル適応推進(IAPEK)を提案する。
論文 参考訳(メタデータ) (2023-07-19T20:16:46Z) - Flexible and Inherently Comprehensible Knowledge Representation for
Data-Efficient Learning and Trustworthy Human-Machine Teaming in
Manufacturing Environments [0.0]
人工知能エージェントの信頼性は、産業生産環境における人間と機械の協調の受容に不可欠である。
我々はエージェントの知識を表現するために、G"ardenforsの認知的にインスピレーションを受けた概念空間フレームワークを利用している。
ファジィカテゴリのメンバシップを決定し、インスタンスを解釈可能に分類するために、シンプルな典型モデルがその上に構築されている。
論文 参考訳(メタデータ) (2023-05-19T11:18:23Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts [1.7778609937758323]
私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
論文 参考訳(メタデータ) (2021-03-15T12:59:15Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。