論文の概要: XAI-KG: knowledge graph to support XAI and decision-making in
manufacturing
- arxiv url: http://arxiv.org/abs/2105.01929v1
- Date: Wed, 5 May 2021 08:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:50:20.377743
- Title: XAI-KG: knowledge graph to support XAI and decision-making in
manufacturing
- Title(参考訳): XAI-KG:製造におけるXAIと意思決定を支援する知識グラフ
- Authors: Jo\v{z}e M. Ro\v{z}anec, Patrik Zajec, Klemen Kenda, Inna Novalija,
Bla\v{z} Fortuna, Dunja Mladeni\'c
- Abstract要約: 本稿では,予測,予測説明,推奨意思決定オプション,ユーザ行動に関するフィードバック収集を支援するオントロジーと知識グラフを提案する。
このように、予測モデル、説明、意思決定オプションの推奨を改善する手段を提供する。
- 参考スコア(独自算出の注目度): 0.5872014229110215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing adoption of artificial intelligence requires accurate
forecasts and means to understand the reasoning of artificial intelligence
models behind such a forecast. Explainable Artificial Intelligence (XAI) aims
to provide cues for why a model issued a certain prediction. Such cues are of
utmost importance to decision-making since they provide insights on the
features that influenced most certain forecasts and let the user decide if the
forecast can be trusted. Though many techniques were developed to explain
black-box models, little research was done on assessing the quality of those
explanations and their influence on decision-making. We propose an ontology and
knowledge graph to support collecting feedback regarding forecasts, forecast
explanations, recommended decision-making options, and user actions. This way,
we provide means to improve forecasting models, explanations, and
recommendations of decision-making options. We tailor the knowledge graph for
the domain of demand forecasting and validate it on real-world data.
- Abstract(参考訳): 人工知能の採用の増加は、その予測の背後にある人工知能モデルの推論を理解するための正確な予測と手段を必要とする。
説明可能な人工知能(XAI)は、モデルが特定の予測を発行した理由の手がかりを提供することを目的としている。
このような手がかりは、特定の予測に影響を及ぼす機能に関する洞察を提供し、予測が信頼できるかどうかをユーザーに判断させることから、意思決定において最も重要である。
ブラックボックスモデルを説明するために多くの技術が開発されたが、これらの説明の質とその意思決定への影響を評価する研究はほとんど行われなかった。
本稿では,予測,予測説明,推奨意思決定オプション,ユーザ行動に関するフィードバック収集を支援するオントロジーと知識グラフを提案する。
このように、予測モデル、説明、意思決定オプションの推奨を改善する手段を提供する。
我々は、需要予測領域の知識グラフを調整し、実世界のデータに基づいて検証する。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Predictability and Comprehensibility in Post-Hoc XAI Methods: A
User-Centered Analysis [6.606409729669314]
ポストホック説明可能性法は、ブラックボックス機械学習モデルの予測を明らかにすることを目的としている。
我々は、LIMEとSHAPの2つの広く使われているツールにおいて、理解性と予測可能性を評価するために、ユーザスタディを実施している。
モデル決定境界付近のサンプルに対して説明を行うと,SHAPの理解度が大幅に低下することがわかった。
論文 参考訳(メタデータ) (2023-09-21T11:54:20Z) - Characterizing the contribution of dependent features in XAI methods [6.990173577370281]
本稿では,XAI特徴量ランキング法の結果を,予測者間の依存性を考慮に入れたプロキシを提案する。
提案手法はモデルに依存しないという利点があり、コリニアリティが存在する場合のモデルにおける各予測器の影響を計算するのが簡単である。
論文 参考訳(メタデータ) (2023-04-04T11:25:57Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Enriching Artificial Intelligence Explanations with Knowledge Fragments [0.415623340386296]
この研究は、特定の予測のための機能ランキングを考慮し、メディアニュースエントリ、データセットのメタデータ、Google Knowledge Graphからのエントリを豊かにすることで、説明を構築している。
需要予測に関する実世界のユースケースにおける2つのアプローチ(埋め込みベースと意味ベース)を比較した。
論文 参考訳(メタデータ) (2022-04-12T07:19:30Z) - Finding Useful Predictions by Meta-gradient Descent to Improve
Decision-making [1.384055225262046]
我々は、一般値関数として表現される予測に焦点をあてる: 将来的な信号の蓄積の時間的拡張推定。
ひとつの課題は、エージェントが意思決定をサポートする可能性のある予測を、無限に多くの予測から決定することである。
これらの予測を手動で指定するのではなく、学習することにより、エージェントは自己管理的な方法で有用な予測を特定できる。
論文 参考訳(メタデータ) (2021-11-18T20:17:07Z) - Semantic XAI for contextualized demand forecasting explanations [0.9137554315375922]
本稿では、セマンティック技術とAIに基づく説明可能なAIのための新しいアーキテクチャを提案する。
需要予測の領域のアーキテクチャを調整し、実世界のケーススタディでそれを検証します。
論文 参考訳(メタデータ) (2021-04-01T13:08:53Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。