論文の概要: Statutory Construction and Interpretation for Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2509.01186v1
- Date: Mon, 01 Sep 2025 07:10:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.573272
- Title: Statutory Construction and Interpretation for Artificial Intelligence
- Title(参考訳): 人工知能の統計構築と解釈
- Authors: Luxi He, Nimra Nadeem, Michel Liao, Howard Chen, Danqi Chen, Mariano-Florentino Cuéllar, Peter Henderson,
- Abstract要約: 同一規則の異なる解釈が不整合あるいは不安定なモデル行動を引き起こすことを示す。
本稿では2つの法的メカニズムを反映した計算フレームワークを提案する。
私たちのアプローチは、解釈的曖昧さを体系的に管理するための第一歩を提供します。
- 参考スコア(独自算出の注目度): 19.65776192762091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI systems are increasingly governed by natural language principles, yet a key challenge arising from reliance on language remains underexplored: interpretive ambiguity. As in legal systems, ambiguity arises both from how these principles are written and how they are applied. But while legal systems use institutional safeguards to manage such ambiguity, such as transparent appellate review policing interpretive constraints, AI alignment pipelines offer no comparable protections. Different interpretations of the same rule can lead to inconsistent or unstable model behavior. Drawing on legal theory, we identify key gaps in current alignment pipelines by examining how legal systems constrain ambiguity at both the rule creation and rule application steps. We then propose a computational framework that mirrors two legal mechanisms: (1) a rule refinement pipeline that minimizes interpretive disagreement by revising ambiguous rules (analogous to agency rulemaking or iterative legislative action), and (2) prompt-based interpretive constraints that reduce inconsistency in rule application (analogous to legal canons that guide judicial discretion). We evaluate our framework on a 5,000-scenario subset of the WildChat dataset and show that both interventions significantly improve judgment consistency across a panel of reasonable interpreters. Our approach offers a first step toward systematically managing interpretive ambiguity, an essential step for building more robust, law-following AI systems.
- Abstract(参考訳): AIシステムはますます自然言語の原則によって支配されているが、言語への依存から生じる重要な課題は、解釈的曖昧さ(interpretive ambiguity)である。
法体系と同様に、曖昧さは、これらの原則の書き方と適用方法の両方から生じる。
しかし、法制度はそのような曖昧さを管理するために制度的な安全対策(例えば、解釈的制約を規制する透明な審査など)を使用しているが、AIアライメントパイプラインは同等の保護を提供していない。
同じ規則の異なる解釈は、矛盾または不安定なモデル行動を引き起こす可能性がある。
法理論に基づいて、法体系がルール生成とルール適用の両方のステップにおいてあいまいさをいかに制限するかを調べることによって、現在のアライメントパイプラインにおける重要なギャップを識別する。
次に,(1)曖昧な規則(機関の規則作成や反復的立法行為に類似する)の改正による解釈的不一致を最小限に抑えるルール精細化パイプライン,(2)規則適用の不整合を減少させるプロンプトに基づく解釈的制約(司法判断を導く法的なカノンに類似する)の2つの法的なメカニズムを反映した計算枠組みを提案する。
筆者らはWildChatデータセットの5000-scenarioサブセット上でのフレームワークの評価を行い、双方の介入が合理的なインタプリタのパネル間での判定一貫性を著しく向上させることを示した。
私たちのアプローチは、より堅牢で法律に従うAIシステムを構築するための重要なステップである、解釈的曖昧さを体系的に管理するための第一歩を提供します。
関連論文リスト
- Judicial Requirements for Generative AI in Legal Reasoning [0.0]
大規模言語モデル(LLM)はプロのドメインに統合されているが、法律のような高度な分野における制限は理解されていない。
本稿では、AIシステムが司法判断における信頼性の高い推論ツールとして機能しなければならない中核機能について述べる。
論文 参考訳(メタデータ) (2025-08-26T09:56:26Z) - RLJP: Legal Judgment Prediction via First-Order Logic Rule-enhanced with Large Language Models [58.69183479148083]
法的判断予測(LJP)は、法的AIにおいて重要な課題である。
既存のLJPモデルは、高いパフォーマンスのために司法上の前例と法的な知識を統合している。
しかし彼らは、厳密な論理分析を必要とする法的判断の重要な要素である法的推論論理を無視している。
本稿では、一階述語論理(FOL)形式と比較学習(CL)に基づく規則強化された法的判断予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T14:50:21Z) - Two Means to an End Goal: Connecting Explainability and Contestability in the Regulation of Public Sector AI [8.626461916354874]
本研究では, 説明可能性と競争可能性の交差と実装, 異なる研究コミュニティにおける理解について検討する。
本稿では、トップダウンとボトムアップの規制の整合性、責任の割り当て、学際的協力の必要性など、両原則の実現における摩擦の要点について述べる。
当社のコントリビューションは、これらの中核原則の政策決定と規制を通知し、より効果的で公平な設計、開発、信頼性の高い公開AIシステムのデプロイを可能にします。
論文 参考訳(メタデータ) (2025-04-25T10:34:00Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - RuleArena: A Benchmark for Rule-Guided Reasoning with LLMs in Real-World Scenarios [58.90106984375913]
RuleArenaは、大規模言語モデル(LLM)が推論において複雑な現実世界のルールに従う能力を評価するために設計された、新しくて挑戦的なベンチマークである。
航空会社の荷物手数料、NBA取引、税制の3つの実践的領域をカバーするルールアリーナは、複雑な自然言語命令を扱うのにLLMの習熟度を評価する。
論文 参考訳(メタデータ) (2024-12-12T06:08:46Z) - The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Social, Legal, Ethical, Empathetic, and Cultural Rules: Compilation and Reasoning (Extended Version) [8.425874385897831]
SLEEC(社会的、法的、倫理的、共感的、文化的)ルールは、AIベースの自律システムが従うべき規則の定式化、検証、実施を促進することを目的としている。
AIシステムで効果的な使用を可能にするためには、これらのルールを自動推論をサポートする形式言語に体系的に翻訳する必要がある。
本研究ではまず,SLEEC規則の古典論理への翻訳を正当化するSLEEC規則パターンの言語学的解析を行う。
論文 参考訳(メタデータ) (2023-12-15T11:23:49Z) - Large Language Models and Explainable Law: a Hybrid Methodology [44.99833362998488]
規則に基づく法体系のアクセシビリティ, 利用, 説明可能性を高めるため, LLMを提唱する。
ルールベースシステムによる説明を翻訳するために, LLM の利用の可能性を探るため, 提案手法を開発した。
論文 参考訳(メタデータ) (2023-11-20T14:47:20Z) - Law to Binary Tree -- An Formal Interpretation of Legal Natural Language [3.1468624343533844]
本稿では,法学,特に法律分類学に基づく新たな手法を提案する。
本手法は,法文書の規則を二分木と解釈し,法的推論システムによる決定と論理的矛盾の解決を容易にする。
論文 参考訳(メタデータ) (2022-12-16T08:26:32Z) - Bridging between LegalRuleML and TPTP for Automated Normative Reasoning
(extended version) [77.34726150561087]
LegalRuleMLは、標準ルールのモデリングと交換のためのXMLベースの表現フレームワークである。
TPTP入力および出力フォーマットは、自動推論システムとのインタラクションのための汎用標準である。
本稿では,TPTP形式に基づく論理的論理的規範的推論言語を定義することにより,この2つのコミュニティ間の橋渡しを行う。
論文 参考訳(メタデータ) (2022-09-12T08:42:34Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。