論文の概要: 'Put the Car on the Stand': SMT-based Oracles for Investigating
Decisions
- arxiv url: http://arxiv.org/abs/2305.05731v1
- Date: Tue, 9 May 2023 19:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 15:33:33.930444
- Title: 'Put the Car on the Stand': SMT-based Oracles for Investigating
Decisions
- Title(参考訳): スタンドに車を停める」:SMTベースのオラクルが意思決定を調査
- Authors: Samuel Judson and Matthew Elacqua and Filip Cano C\'ordoba and Timos
Antonopoulos and Bettina K\"onighofer and Scott J. Shapiro and Ruzica Piskac
- Abstract要約: 最小限の仮定の下では、自動推論はアルゴリズムの振る舞いを厳格に問うことができることを示す。
我々は、検証やレビューボードなどの説明責任プロセスを、非現実的な論理探索や抽象リファインメントループとしてモデル化する。
当社のフレームワークを,付属のGUIを備えた$sftextsoid$というツールで実装し,その実用性を実演的な自動車事故シナリオで実証する。
- 参考スコア(独自算出の注目度): 3.1609364522288996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principled accountability in the aftermath of harms is essential to the
trustworthy design and governance of algorithmic decision making. Legal
philosophy offers a paramount method for assessing culpability: putting the
agent 'on the stand' to subject their actions and intentions to
cross-examination. We show that under minimal assumptions automated reasoning
can rigorously interrogate algorithmic behaviors as in the adversarial process
of legal fact finding. We model accountability processes, such as trials or
review boards, as Counterfactual-Guided Logic Exploration and Abstraction
Refinement (CLEAR) loops. We use an SMT-based oracle to discharge queries about
agent behavior in factual and counterfactual scenarios, as adaptively
formulated by a human investigator. For a decision algorithm $\mathcal{A}$, we
use symbolic execution to represent its logic as a statement $\Pi$ in the
decidable theory $\texttt{QF_FPBV}$. We implement our framework in a tool
called $\textsf{soid}$ with an accompanying GUI, and demonstrate its utility on
an illustrative car crash scenario.
- Abstract(参考訳): 害の余波における原則的説明責任は、アルゴリズムによる意思決定の信頼できる設計とガバナンスに不可欠である。
法哲学は、エージェントをスタンドに置き、彼らの行動と横断的な検査の意図を従わせること。
最小の仮定の下では、自動推論は、法的事実発見の敵対的プロセスのように、アルゴリズムの振る舞いを厳格に問うことができる。
我々は、試験やレビューボードなどの説明責任プロセスを、対実ガイド型論理探索と抽象リファインメント(CLEAR)ループとしてモデル化する。
我々は,SMTに基づくオラクルを用いて,エージェントの行動に関する質問を,人間研究者によって適応的に定式化されるように現実的および反現実的なシナリオで発信する。
決定アルゴリズム $\mathcal{a}$ に対して、決定可能理論 $\texttt{qf_fpbv}$ において、その論理を$\pi$ として表現するために記号的実行を使用する。
当社のフレームワークを,付属のGUIを備えた$\textsf{soid}$というツールで実装し,その実用性を実証的な自動車事故シナリオで実証する。
関連論文リスト
- FLARE: Faithful Logic-Aided Reasoning and Exploration [50.9814063216852]
タスク分解を用いて問題空間をトラバースする新しい手法を提案する。
我々はLarge Language Modelsを使ってソリューションを計画し、クエリを事実に軟式化し、論理プログラミングコードを使って述語する。
提案手法は,生成したコードに対する推論プロセスの忠実度を計算し,外部の解法に頼らずにマルチホップ探索のステップを解析する。
論文 参考訳(メタデータ) (2024-10-14T19:39:11Z) - LogicGame: Benchmarking Rule-Based Reasoning Abilities of Large Language Models [87.49676980090555]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示し、複雑な問題解決能力を示している。
LLMの包括的なルール理解、実行、計画能力を評価するために設計された新しいベンチマークであるLogicGameを紹介する。
論文 参考訳(メタデータ) (2024-08-28T13:16:41Z) - Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference [20.057611113206324]
本研究では,大規模言語モデル (LLM) を早急に規定された規則に従う方法について検討する。
LLMはそのような規則を忠実に従えるが、悪意のあるプロンプトは理想化された理論的なモデルさえも誤解させる可能性があることを証明している。
論文 参考訳(メタデータ) (2024-06-21T19:18:16Z) - Logic Rules as Explanations for Legal Case Retrieval [9.240902132139187]
本稿では,ケースレベルの論理則と法レベルの論理則を学習することで,訴訟の一致を推論する枠組みを提案する。
論理則の論理性と解釈性から、NS-LCRは忠実な説明性を備えている。
論文 参考訳(メタデータ) (2024-03-03T09:22:21Z) - Automated legal reasoning with discretion to act using s(LAW) [0.294944680995069]
倫理的および法的懸念は、自動化された推論者が人間の理解可能な言葉で正当化する必要がある。
パターンのセットに従って曖昧な概念をモデル化するために、ASPを述語するためのトップダウン実行モデルであるs(CASP)を使うことを提案する。
我々は、s(LAW)と呼ばれるフレームワークを実装して、適用可能な法律をモデル化、理由付け、正当化し、代表的なユースケースを翻訳(およびベンチマーク)することでそれを検証しました。
論文 参考訳(メタデータ) (2024-01-25T21:11:08Z) - OPERA:Operation-Pivoted Discrete Reasoning over Text [33.36388276371693]
OPERA(オペラ)は、機械読解のための操作駆動型離散推論フレームワークである。
推論能力と解釈可能性を促進するために、軽量なシンボル操作をニューラルモジュールとして使用する。
DROPとRACENumのデータセットの実験は、OPERAの推論能力を示している。
論文 参考訳(メタデータ) (2022-04-29T15:41:47Z) - Linear Temporal Logic Modulo Theories over Finite Traces (Extended
Version) [72.38188258853155]
有限トレース(LTLf)上の線形時間論理について検討する。
命題の文字は任意の理論で解釈された一階述語式に置き換えられる。
Satisfiability Modulo Theories (LTLfMT) と呼ばれる結果の論理は半決定可能である。
論文 参考訳(メタデータ) (2022-04-28T17:57:33Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - On Exploiting Hitting Sets for Model Reconciliation [53.81101846598925]
ヒューマン・アウェア・プランニングにおいて、プランニング・エージェントは、その計画がなぜ最適なのかを人間に説明する必要があるかもしれない。
この手法はモデル和解と呼ばれ、エージェントはモデルと人間のモデルの違いを調和させようとする。
我々は,計画の領域を超えて拡張されたモデル和解のための論理ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。