論文の概要: A Methodology and Software Architecture to Support
Explainability-by-Design
- arxiv url: http://arxiv.org/abs/2206.06251v2
- Date: Thu, 25 May 2023 23:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 00:19:02.825201
- Title: A Methodology and Software Architecture to Support
Explainability-by-Design
- Title(参考訳): 説明可能な設計を支援する方法論とソフトウェアアーキテクチャ
- Authors: Trung Dong Huynh, Niko Tsakalakis, Ayah Helal, Sophie
Stalla-Bourdillon, Luc Moreau
- Abstract要約: 本稿では,意思決定システムの設計における説明能力を含む積極的尺度を特徴とする説明可能性設計手法について述べる。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
提案手法は,1文あたり2時間程度の開発時間で抽出可能であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithms play a crucial role in many technological systems that control or
affect various aspects of our lives. As a result, providing explanations for
their decisions to address the needs of users and organisations is increasingly
expected by laws, regulations, codes of conduct, and the public. However, as
laws and regulations do not prescribe how to meet such expectations,
organisations are often left to devise their own approaches to explainability,
inevitably increasing the cost of compliance and good governance. Hence, we
envision Explainability-by-Design, a holistic methodology characterised by
proactive measures to include explanation capability in the design of
decision-making systems. The methodology consists of three phases: (A)
Explanation Requirement Analysis, (B) Explanation Technical Design, and (C)
Explanation Validation. This paper describes phase (B), a technical workflow to
implement explanation capability from requirements elicited by domain experts
for a specific application context. Outputs of this phase are a set of
configurations, allowing a reusable explanation service to exploit logs
provided by the target application to create provenance traces of the
application's decisions. The provenance then can be queried to extract relevant
data points, which can be used in explanation plans to construct explanations
personalised to their consumers. Following the workflow, organisations can
design their decision-making systems to produce explanations that meet the
specified requirements. To facilitate the process, we present a software
architecture with reusable components to incorporate the resulting explanation
capability into an application. Finally, we applied the workflow to two
application scenarios and measured the associated development costs. It was
shown that the approach is tractable in terms of development time, which can be
as low as two hours per sentence.
- Abstract(参考訳): アルゴリズムは、私たちの生活の様々な側面を制御または影響する多くの技術システムにおいて重要な役割を果たす。
その結果、法律、規則、行動規範、そして大衆によって、ユーザや組織のニーズに対応するための彼らの決定に関する説明がますます期待されている。
しかし、法律や規則はそのような期待に応える方法を規定していないため、組織はしばしば説明可能性に対する独自のアプローチを考案し、必然的にコンプライアンスと優れたガバナンスのコストを増加させます。
そこで我々は,意思決定システムの設計に説明能力を含める積極的尺度によって特徴付けられる,説明可能性に基づく設計手法を構想する。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
本稿では、特定のアプリケーションコンテキストに対してドメインの専門家が要求する要件から説明機能を実装するための技術ワークフローであるフェーズ(B)について述べる。
このフェーズの出力は一連の設定であり、再利用可能な説明サービスにより、ターゲットアプリケーションが提供するログを利用して、アプリケーションの決定の出所トレースを作成することができる。
その前駆者は、関連するデータポイントを抽出するためにクエリされ、消費者にパーソナライズされた説明を構築するための説明プランに使用できる。
ワークフローに従って、組織は特定の要件を満たす説明を生成するために意思決定システムを設計することができる。
このプロセスを容易にするために、再利用可能なコンポーネントを備えたソフトウェアアーキテクチャを提案し、その結果の説明機能をアプリケーションに組み込む。
最後に、ワークフローを2つのアプリケーションシナリオに適用し、関連する開発コストを測定しました。
その結果、このアプローチは発達時間の観点からは扱いやすいことが示され、1文あたり2時間程度に抑えられる可能性がある。
関連論文リスト
- Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - Fountain -- an intelligent contextual assistant combining knowledge
representation and language models for manufacturing risk identification [7.599675376503671]
偏差管理ワークフローに組み込まれたコンテキストアシスタントとしてFuntainを開発した。
工学領域における事前学習言語モデルの選択と適応のニュアンスについて述べる。
製造組織のほとんどのエンジニアリングチームで既に利用可能な中程度の計算インフラを用いて、モデル適応が実現可能であることを実証する。
論文 参考訳(メタデータ) (2023-08-01T08:12:43Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - A taxonomy of explanations to support Explainability-by-Design [0.0]
本稿では、全体論的な「説明可能性・デザイン」アプローチの一部として開発された説明の分類について述べる。
分類学は、様々な規制の枠組みや政策から生じる幅広い要件を説明するために作られた。
自動コンプライアンス戦略を支援するために、探偵コントロールとして考案された説明のスタンドアロン分類器として使用される。
論文 参考訳(メタデータ) (2022-06-09T11:59:42Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - A Research Agenda for Artificial Intelligence in the Field of Flexible
Production Systems [53.47496941841855]
生産会社は、需要変動や要求の変化に対して生産制御を迅速に適応することに関して、問題に直面します。
サービスという意味で生産機能をカプセル化することを目的とした制御手法は,サイバー物理生産システムの柔軟性を高めるために有望であることが示されている。
しかし、そのようなアプローチの既存の課題は、要求された機能と提供された機能の間に直接(統語的)一致がない場合に、一連の要求に対して提供された機能に基づいて生産計画を見つけることである。
論文 参考訳(メタデータ) (2021-12-31T14:38:31Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Inverse Reinforcement Learning of Autonomous Behaviors Encoded as
Weighted Finite Automata [18.972270182221262]
本稿では,論理タスク仕様とコスト関数を実演から学習する手法を提案する。
本稿では,タスクの未知論理構造を近似した重み付き有限オートマトン(WFA)の抽出にスペクトル学習手法を用いる。
高レベルタスクガイダンスのためのWFAと低レベル制御のためのラベル付きマルコフ決定プロセス(L-MDP)との間にある製品を定義し、実証者の行動にマッチするコスト関数を最適化する。
論文 参考訳(メタデータ) (2021-03-10T06:42:10Z) - Semantic based model of Conceptual Work Products for formal verification
of complex interactive systems [3.0458872052651973]
概念的作業製品に対する客観的な仕様を検証するための自動論理推論器について述べる。
概念的な作業製品仕様は、明確に述べられ、正しく、解決可能な、基本的な出力要件として機能する。
セマンティックWebのツールによる作業オントロジーは、自動推論による解決可能性の検証のために、クラスと状態図を変換するために必要です。
論文 参考訳(メタデータ) (2020-08-04T15:10:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。