論文の概要: LERA: Reinstating Judgment as a Structural Precondition for Execution in Automated Systems
- arxiv url: http://arxiv.org/abs/2601.08880v1
- Date: Mon, 12 Jan 2026 14:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.119718
- Title: LERA: Reinstating Judgment as a Structural Precondition for Execution in Automated Systems
- Title(参考訳): LERA:自動システムの実行のための構造的前提条件としての判断の再検討
- Authors: Jing, Liu,
- Abstract要約: 判決は一般的に、実行に対するネイティブの前提条件ではなく、外部の介入として導入される。
本稿では,強制的かつ回避不能な前提条件として判断を強制する構造的枠組みであるLERAを提案する。
- 参考スコア(独自算出の注目度): 1.4231914840649322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As automated systems increasingly transition from decision support to direct execution, the problem of accountability shifts from decision quality to execution legitimacy. While optimization, execution, and feedback mechanisms are extensively modeled in contemporary AI and control architectures, the structural role of judgment remains undefined. Judgment is typically introduced as an external intervention rather than a native precondition to execution. This work does not propose a new decision-making algorithm or safety heuristic, but identifies a missing structural role in contemporary AI and control architectures. This paper identifies this absence as a missing Judgment Root Node and proposes LERA (Judgment-Governance Architecture) , a structural framework that enforces judgment as a mandatory, non-bypassable prerequisite for execution. LERA is founded on two axioms: (1) execution is not a matter of system capability, but of structural permission, and (2) execution is not the chronological successor of judgment, but its structural consequence. Together, these axioms decouple execution legitimacy from computational capacity and bind it to judgment completion through a governance gate. LERA does not aim to optimize decisions or automate judgment. Instead, it institutionalizes judgment as a first-class architectural component, ensuring that execution authority remains accountable. By reinstating judgment at the execution boundary, LERA establishes a foundational architecture for judgment-governed automation.
- Abstract(参考訳): 自動システムが意思決定サポートから直接実行へと移行するにつれて、説明責任の問題は意思決定品質から実行の正当性へとシフトする。
最適化、実行、フィードバックのメカニズムは現代のAIや制御アーキテクチャで広くモデル化されているが、判断の構造的役割は未定義のままである。
判決は一般的に、実行に対するネイティブの前提条件ではなく、外部の介入として導入される。
この研究は、新しい意思決定アルゴリズムや安全ヒューリスティックは提案していないが、現代のAIと制御アーキテクチャにおける構造的役割の欠如を識別している。
本稿では,この欠如を判断ルートノードの欠如と認識し,強制的かつバイパス不能な実行要件として判断を強制する構造的枠組みであるLERA(Judgment-Governance Architecture)を提案する。
LERAは、(1) 実行はシステム能力の問題ではなく、構造的許可の問題であり、(2) 実行は判断の時系列的継承ではなく、その構造的帰結である。
これらの公理は共に、実行の正当性を計算能力から切り離し、ガバナンスゲートを介して判断完了に結び付ける。
LERAは意思決定の最適化や判断の自動化を目標としていない。
代わりに、第一級のアーキテクチャコンポーネントとしての判断を制度化し、実行権限が責任を負うことを保証します。
LERAは、実行バウンダリでの判断を復活させることで、判断に支配された自動化のための基礎的なアーキテクチャを確立する。
関連論文リスト
- Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems [18.881800772626427]
生成モデルは、実現可能性、分散シフトに対する堅牢性、ストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある、と我々は主張する。
我々は,運用研究に根ざした自律性確保のための概念的枠組みを開発する。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
論文 参考訳(メタデータ) (2025-12-30T04:24:06Z) - The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI [0.0]
本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介する。
我々は、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示す。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
論文 参考訳(メタデータ) (2025-12-18T18:42:16Z) - From Linear Risk to Emergent Harm: Complexity as the Missing Core of AI Governance [0.0]
リスクベースのAI規制は、予想される損害に対応する比例制御を約束する。
本稿では、そのようなフレームワークは構造上の理由から失敗することが多いと論じる。
我々は,規制を制御ではなく介入として扱う,AIガバナンスのための複雑性ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-14T14:19:21Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Deterministic Legal Agents: A Canonical Primitive API for Auditable Reasoning over Temporal Knowledge Graphs [0.0]
本稿では,時間的知識グラフの推論のためのセキュアな実行層として設計された形式的プリミティブAPIを提案する。
私たちのフレームワークは、モノリシックなクエリエンジンの代わりに、標準的なプリミティブ、構成可能、監査可能なプリミティブのライブラリを提供します。
このアーキテクチャは不透明な検索を監査可能な推論に変換し、エージェントの内部プロセスをブラックボックスから決定論的プリミティブの検証可能なログに変換する。
論文 参考訳(メタデータ) (2025-10-07T15:04:23Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Control Illusion: The Failure of Instruction Hierarchies in Large Language Models [46.5792253691152]
大規模言語モデル (LLM) は階層的な命令スキームによって徐々に展開される。
制約優先順位付けに基づく体系的評価フレームワークを導入し,LLMがいかに命令階層を強制するかを評価する。
論文 参考訳(メタデータ) (2025-02-21T04:51:37Z) - Rational Decision-Making Agent with Internalized Utility Judgment [88.01612847081677]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。