論文の概要: Explainable Human-in-the-loop Dynamic Data-Driven Digital Twins
- arxiv url: http://arxiv.org/abs/2207.09106v1
- Date: Tue, 19 Jul 2022 07:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:25:17.153037
- Title: Explainable Human-in-the-loop Dynamic Data-Driven Digital Twins
- Title(参考訳): 説明可能なループ内動的データ駆動デジタル双生児
- Authors: Nan Zhang, Rami Bahsoon, Nikos Tziritas, Georgios Theodoropoulos
- Abstract要約: Digital Twins (DT) は基本的に動的データ駆動型モデルであり、現実世界のシステムのリアルタイム共生「仮想レプリカ」として機能する。
本稿では, 双方向共生感覚フィードバックを利用して, ヒューマン・イン・ザ・ループ型DDDASおよびDTシステムにおける説明可能性を活用する手法を提案する。
- 参考スコア(独自算出の注目度): 6.657586324950896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital Twins (DT) are essentially Dynamic Data-driven models that serve as
real-time symbiotic "virtual replicas" of real-world systems. DT can leverage
fundamentals of Dynamic Data-Driven Applications Systems (DDDAS) bidirectional
symbiotic sensing feedback loops for its continuous updates. Sensing loops can
consequently steer measurement, analysis and reconfiguration aimed at more
accurate modelling and analysis in DT. The reconfiguration decisions can be
autonomous or interactive, keeping human-in-the-loop. The trustworthiness of
these decisions can be hindered by inadequate explainability of the rationale,
and utility gained in implementing the decision for the given situation among
alternatives. Additionally, different decision-making algorithms and models
have varying complexity, quality and can result in different utility gained for
the model. The inadequacy of explainability can limit the extent to which
humans can evaluate the decisions, often leading to updates which are unfit for
the given situation, erroneous, compromising the overall accuracy of the model.
The novel contribution of this paper is an approach to harnessing
explainability in human-in-the-loop DDDAS and DT systems, leveraging
bidirectional symbiotic sensing feedback. The approach utilises interpretable
machine learning and goal modelling to explainability, and considers trade-off
analysis of utility gained. We use examples from smart warehousing to
demonstrate the approach.
- Abstract(参考訳): Digital Twins (DT) は基本的に動的データ駆動型モデルであり、現実世界のシステムのリアルタイム共生「仮想レプリカ」として機能する。
DTは、動的データ駆動アプリケーションシステム(DDDAS)の双方向共生感覚フィードバックループを継続的更新に活用することができる。
その結果、dtのより正確なモデリングと分析を目的とした計測、分析、再構成を行うことができる。
再構成の決定は、自律的あるいは対話的であり、人間のループを保てる。
これらの決定の信頼性は、理論的根拠の不十分な説明によって妨げられ、代替案間で与えられた状況の決定を実行するために得られる有用性によって妨げられる。
さらに、異なる意思決定アルゴリズムとモデルには複雑さ、品質があり、結果としてモデルに異なるユーティリティが得られます。
説明可能性の欠如は、人間が決定を評価できる範囲を制限し、多くの場合、与えられた状況に不適切な更新を導き、モデルの全体的な精度を損なう可能性がある。
本論文の新たな貢献は、双方向共生感覚フィードバックを活用して、人間内DDDASおよびDTシステムにおける説明可能性を活用するアプローチである。
このアプローチは解釈可能な機械学習とゴールモデリングを利用して説明し、得られたユーティリティのトレードオフ分析を検討する。
このアプローチを実証するために、スマートウェアハウジングの例を使用します。
関連論文リスト
- Identifiable Representation and Model Learning for Latent Dynamic Systems [0.0]
本稿では,潜在力学系における表現とモデル学習の問題について検討する。
線形あるいはアフィン非線形潜在力学系に対して、スケーリングまでの表現を同定し、いくつかの単純な変換までモデルを決定できることを証明した。
論文 参考訳(メタデータ) (2024-10-23T13:55:42Z) - Large Language Models for Explainable Decisions in Dynamic Digital Twins [3.179208155005568]
動的データ駆動型Digital Twins(DDT)は、インフォームドな意思決定を可能にし、基盤となるシステムのための最適化プラットフォームを提供する。
本稿では,大規模言語モデル(LLM)を用いてDDTの説明可能性プラットフォームを提案する。
ドメイン固有の知識ベースを活用することにより、システムの意思決定に関する自然言語の説明を生成する。
論文 参考訳(メタデータ) (2024-05-23T10:32:38Z) - Causal Graph ODE: Continuous Treatment Effect Modeling in Multi-agent
Dynamical Systems [70.84976977950075]
実世界のマルチエージェントシステムは、しばしば動的で連続的であり、エージェントは時間とともにその軌道や相互作用を共進化させ、変化させる。
本稿では,グラフニューラルネットワーク(GNN)をODE関数として,エージェント間の連続的な相互作用をキャプチャする新しいモデルを提案する。
我々のモデルの主な革新は、治療の時間依存表現を学習し、ODE関数にそれらを組み込むことで、潜在的な結果の正確な予測を可能にすることである。
論文 参考訳(メタデータ) (2024-02-29T23:07:07Z) - MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions [11.972017738888825]
大規模モデルの自己消費説明のためのモデルオートファジー分析(MONAL)を提案する。
MONALは、人間とAIシステム間の交換における人為的な情報の抑制を解明するために、2つの異なる自己食ループを使用している。
生成したモデルのキャパシティを,情報作成者とディスセミネータの両方として評価する。
論文 参考訳(メタデータ) (2024-02-17T13:02:54Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Using Shape Metrics to Describe 2D Data Points [0.0]
本稿では,2次元データを記述するために形状計測を用いて,解析をより説明しやすく解釈可能にすることを提案する。
これは、説明可能性の権利が不可欠である医療コミュニティにおける応用において特に重要である。
論文 参考訳(メタデータ) (2022-01-27T23:28:42Z) - Provably Robust Model-Centric Explanations for Critical Decision-Making [14.367217955827002]
データ中心の手法は、限られた実用性についての脆い説明をもたらす可能性がある。
しかし、モデル中心のフレームワークは、実際にAIモデルを使用するリスクに関する実用的な洞察を提供することができる。
論文 参考訳(メタデータ) (2021-10-26T18:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。