論文の概要: 'Put the Car on the Stand': SMT-based Oracles for Investigating
Decisions
- arxiv url: http://arxiv.org/abs/2305.05731v2
- Date: Mon, 29 Jan 2024 21:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 19:40:59.390005
- Title: 'Put the Car on the Stand': SMT-based Oracles for Investigating
Decisions
- Title(参考訳): スタンドに車を停める」:SMTベースのオラクルが意思決定を調査
- Authors: Samuel Judson and Matthew Elacqua and Filip Cano and Timos
Antonopoulos and Bettina K\"onighofer and Scott J. Shapiro and Ruzica Piskac
- Abstract要約: 最小限の仮定の下では、自動推論はアルゴリズムの振る舞いを厳格に問うことができることを示す。
我々は、検証やレビューボードなどの説明責任プロセスを、非現実的な論理探索や抽象リファインメントループとしてモデル化する。
われわれのフレームワークを実装し、その実用性を実証的な自動車事故のシナリオで実証する。
- 参考スコア(独自算出の注目度): 4.170056099990699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principled accountability in the aftermath of harms is essential to the
trustworthy design and governance of algorithmic decision making. Legal theory
offers a paramount method for assessing culpability: putting the agent 'on the
stand' to subject their actions and intentions to cross-examination. We show
that under minimal assumptions automated reasoning can rigorously interrogate
algorithmic behaviors as in the adversarial process of legal fact finding. We
model accountability processes, such as trials or review boards, as
Counterfactual-Guided Logic Exploration and Abstraction Refinement (CLEAR)
loops. We use the formal methods of symbolic execution and satisfiability
modulo theories (SMT) solving to discharge queries about agent behavior in
factual and counterfactual scenarios, as adaptively formulated by a human
investigator. In order to do so, for a decision algorithm $\mathcal{A}$ we use
symbolic execution to represent its logic as a statement $\Pi$ in the decidable
theory $\texttt{QF_FPBV}$. We implement our framework and demonstrate its
utility on an illustrative car crash scenario.
- Abstract(参考訳): 害の余波における原則的説明責任は、アルゴリズムによる意思決定の信頼できる設計とガバナンスに不可欠である。
法理論は、エージェントをスタンドに置き、彼らの行動と横断的な検査の意図を従わせるという、実行可能性を評価するための最優先の方法を提供する。
最小の仮定の下では、自動推論は、法的事実発見の敵対的プロセスのように、アルゴリズムの振る舞いを厳格に問うことができる。
我々は、試験やレビューボードなどの説明責任プロセスを、対実ガイド型論理探索と抽象リファインメント(CLEAR)ループとしてモデル化する。
我々は,人間研究者が適応的に定式化したように,記号実行と満足度変調理論(SMT)の形式的手法を用いて,エージェントの行動に関するクエリを現実的および反現実的シナリオで排出する。
そのためには、決定アルゴリズム $\mathcal{a}$ に対して、決定可能理論 $\texttt{qf_fpbv}$ において、その論理を$\pi$ として表現するために記号的実行を使用する。
われわれのフレームワークを実装し、その実用性を実証的な自動車事故のシナリオで実証する。
関連論文リスト
- Logic Rules as Explanations for Legal Case Retrieval [9.240902132139187]
本稿では,ケースレベルの論理則と法レベルの論理則を学習することで,訴訟の一致を推論する枠組みを提案する。
論理則の論理性と解釈性から、NS-LCRは忠実な説明性を備えている。
論文 参考訳(メタデータ) (2024-03-03T09:22:21Z) - Automated legal reasoning with discretion to act using s(LAW) [0.294944680995069]
倫理的および法的懸念は、自動化された推論者が人間の理解可能な言葉で正当化する必要がある。
パターンのセットに従って曖昧な概念をモデル化するために、ASPを述語するためのトップダウン実行モデルであるs(CASP)を使うことを提案する。
我々は、s(LAW)と呼ばれるフレームワークを実装して、適用可能な法律をモデル化、理由付け、正当化し、代表的なユースケースを翻訳(およびベンチマーク)することでそれを検証しました。
論文 参考訳(メタデータ) (2024-01-25T21:11:08Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Analyzing Intentional Behavior in Autonomous Agents under Uncertainty [3.0099979365586265]
不確実な環境での自律的な意思決定の原則的説明責任は、否定的な設計と実際の事故との意図的な結果の区別を必要とする。
本稿では、意図的行動の証拠を定量的に測定し、自律エージェントの行動を分析することを提案する。
ケーススタディでは,本手法が「意図的」交通衝突と「事故的」交通衝突を区別できることを示す。
論文 参考訳(メタデータ) (2023-07-04T07:36:11Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - OPERA:Operation-Pivoted Discrete Reasoning over Text [33.36388276371693]
OPERA(オペラ)は、機械読解のための操作駆動型離散推論フレームワークである。
推論能力と解釈可能性を促進するために、軽量なシンボル操作をニューラルモジュールとして使用する。
DROPとRACENumのデータセットの実験は、OPERAの推論能力を示している。
論文 参考訳(メタデータ) (2022-04-29T15:41:47Z) - Linear Temporal Logic Modulo Theories over Finite Traces (Extended
Version) [72.38188258853155]
有限トレース(LTLf)上の線形時間論理について検討する。
命題の文字は任意の理論で解釈された一階述語式に置き換えられる。
Satisfiability Modulo Theories (LTLfMT) と呼ばれる結果の論理は半決定可能である。
論文 参考訳(メタデータ) (2022-04-28T17:57:33Z) - Reinforcement Learning Guided by Provable Normative Compliance [0.0]
強化学習(Reinforcement Learning, RL)は、自律エージェントの安全、倫理、法的行動のためのツールとして約束されている。
我々は多目的RL(MORL)を用いて、侵害を避けるという倫理的目的と非倫理的目的とのバランスをとる。
提案手法は,MORL手法の多重性に有効であることを示すとともに,割り当てる刑罰の規模に関係なく有効であることを示す。
論文 参考訳(メタデータ) (2022-03-30T13:10:55Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - On Exploiting Hitting Sets for Model Reconciliation [53.81101846598925]
ヒューマン・アウェア・プランニングにおいて、プランニング・エージェントは、その計画がなぜ最適なのかを人間に説明する必要があるかもしれない。
この手法はモデル和解と呼ばれ、エージェントはモデルと人間のモデルの違いを調和させようとする。
我々は,計画の領域を超えて拡張されたモデル和解のための論理ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。