論文の概要: Explainability-by-Design: A Methodology to Support Explanations in
Decision-Making Systems
- arxiv url: http://arxiv.org/abs/2206.06251v1
- Date: Mon, 13 Jun 2022 15:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 20:16:54.660720
- Title: Explainability-by-Design: A Methodology to Support Explanations in
Decision-Making Systems
- Title(参考訳): 説明可能性・設計:意思決定システムにおける説明を支援する手法
- Authors: Trung Dong Huynh, Niko Tsakalakis, Ayah Helal, Sophie
Stalla-Bourdillon, Luc Moreau
- Abstract要約: デザインによる説明可能性」とは、意思決定システムの設計に説明能力を含める積極的措置によって特徴づけられる総合的な方法論である。
本稿では,ソフトウェア工学ワークフローにおける説明可能性・設計方法論の技術的ステップについて述べる。
提案手法を2つのアプリケーションに適用し,説明機能を示す説明アシスタントをデプロイする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithms play a key role nowadays in many technological systems that
control or affect various aspects of our lives. As a result, providing
explanations to address the needs of users and organisations is increasingly
expected by the laws and regulations, codes of conduct, and the public.
However, as laws and regulations do not prescribe how to meet such
expectations, organisations are often left to devise their own approaches to
explainability, inevitably increasing the cost of compliance and good
governance. Hence, we put forth "Explainability by Design", a holistic
methodology characterised by proactive measures to include explanation
capability in the design of decision-making systems. This paper describes the
technical steps of the Explainability-by-Design methodology in a software
engineering workflow to implement explanation capability from requirements
elicited by domain experts for a specific application context. Outputs of the
Explainability-by-Design methodology are a set of configurations, allowing a
reusable service, called the Explanation Assistant, to exploit logs provided by
applications and create provenance traces that can be queried to extract
relevant data points, which in turn can be used in explanation plans to
construct explanations personalised to their consumers. Following those steps,
organisations will be able to design their decision-making systems to produce
explanations that meet the specified requirements, be it from laws,
regulations, or business needs. We apply the methodology to two applications,
resulting in a deployment of the Explanation Assistant demonstrating
explanations capabilities. Finally, the associated development costs are
measured, showing that the approach to construct explanations is tractable in
terms of development time, which can be as low as two hours per explanation
sentence.
- Abstract(参考訳): 近年、アルゴリズムは、生活の様々な側面を制御または影響する多くの技術システムにおいて重要な役割を担っている。
その結果、ユーザーや組織のニーズに対応する説明の提供は、法律や規則、行動規範、大衆によってますます期待されている。
しかし、法律や規則はそのような期待に応える方法を規定していないため、組織はしばしば説明可能性に対する独自のアプローチを考案し、必然的にコンプライアンスと優れたガバナンスのコストを増加させます。
そこで我々は,意思決定システムの設計に説明能力を含める積極的措置によって特徴付けられる包括的方法論である"Explainability by Design"を提唱した。
本稿では、特定のアプリケーション・コンテキストに対してドメイン・エキスパートが要求する要件から説明能力を実装するためのソフトウェア・エンジニアリング・ワークフローにおける説明可能性・設計手法の技術的なステップについて述べる。
Explainability-by-Design(説明可能性・バイ・デザイン)方法論の成果は、アプリケーションが提供するログを利用して、関連するデータポイントを抽出するためにクエリ可能な証明トレースを生成する、Explaination Assistantと呼ばれる再利用可能なサービスのセットである。
これらのステップに従って、組織は、規定された要件を満たす説明を、法律、規制、ビジネスニーズから作成するための意思決定システムを設計することができる。
この方法論を2つのアプリケーションに適用し,説明機能を示す説明アシスタントを配置した。
最後に、関連する開発コストを測定し、説明文1文あたり2時間程度の開発時間で、説明書の構築アプローチが抽出可能であることを示す。
関連論文リスト
- Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - Fountain -- an intelligent contextual assistant combining knowledge
representation and language models for manufacturing risk identification [7.599675376503671]
偏差管理ワークフローに組み込まれたコンテキストアシスタントとしてFuntainを開発した。
工学領域における事前学習言語モデルの選択と適応のニュアンスについて述べる。
製造組織のほとんどのエンジニアリングチームで既に利用可能な中程度の計算インフラを用いて、モデル適応が実現可能であることを実証する。
論文 参考訳(メタデータ) (2023-08-01T08:12:43Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - A taxonomy of explanations to support Explainability-by-Design [0.0]
本稿では、全体論的な「説明可能性・デザイン」アプローチの一部として開発された説明の分類について述べる。
分類学は、様々な規制の枠組みや政策から生じる幅広い要件を説明するために作られた。
自動コンプライアンス戦略を支援するために、探偵コントロールとして考案された説明のスタンドアロン分類器として使用される。
論文 参考訳(メタデータ) (2022-06-09T11:59:42Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - A Research Agenda for Artificial Intelligence in the Field of Flexible
Production Systems [53.47496941841855]
生産会社は、需要変動や要求の変化に対して生産制御を迅速に適応することに関して、問題に直面します。
サービスという意味で生産機能をカプセル化することを目的とした制御手法は,サイバー物理生産システムの柔軟性を高めるために有望であることが示されている。
しかし、そのようなアプローチの既存の課題は、要求された機能と提供された機能の間に直接(統語的)一致がない場合に、一連の要求に対して提供された機能に基づいて生産計画を見つけることである。
論文 参考訳(メタデータ) (2021-12-31T14:38:31Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Inverse Reinforcement Learning of Autonomous Behaviors Encoded as
Weighted Finite Automata [18.972270182221262]
本稿では,論理タスク仕様とコスト関数を実演から学習する手法を提案する。
本稿では,タスクの未知論理構造を近似した重み付き有限オートマトン(WFA)の抽出にスペクトル学習手法を用いる。
高レベルタスクガイダンスのためのWFAと低レベル制御のためのラベル付きマルコフ決定プロセス(L-MDP)との間にある製品を定義し、実証者の行動にマッチするコスト関数を最適化する。
論文 参考訳(メタデータ) (2021-03-10T06:42:10Z) - Semantic based model of Conceptual Work Products for formal verification
of complex interactive systems [3.0458872052651973]
概念的作業製品に対する客観的な仕様を検証するための自動論理推論器について述べる。
概念的な作業製品仕様は、明確に述べられ、正しく、解決可能な、基本的な出力要件として機能する。
セマンティックWebのツールによる作業オントロジーは、自動推論による解決可能性の検証のために、クラスと状態図を変換するために必要です。
論文 参考訳(メタデータ) (2020-08-04T15:10:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。