論文の概要: Semantic XAI for contextualized demand forecasting explanations
- arxiv url: http://arxiv.org/abs/2104.00452v1
- Date: Thu, 1 Apr 2021 13:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:28:21.155209
- Title: Semantic XAI for contextualized demand forecasting explanations
- Title(参考訳): 文脈的需要予測のためのセマンティックXAI
- Authors: Jo\v{z}e M. Ro\v{z}anec and Dunja Mladeni\'c
- Abstract要約: 本稿では、セマンティック技術とAIに基づく説明可能なAIのための新しいアーキテクチャを提案する。
需要予測の領域のアーキテクチャを調整し、実世界のケーススタディでそれを検証します。
- 参考スコア(独自算出の注目度): 0.9137554315375922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper proposes a novel architecture for explainable AI based on semantic
technologies and AI. We tailor the architecture for the domain of demand
forecasting and validate it on a real-world case study. The provided
explanations combine concepts describing features relevant to a particular
forecast, related media events, and metadata regarding external datasets of
interest. The knowledge graph provides concepts that convey feature information
at a higher abstraction level. By using them, explanations do not expose
sensitive details regarding the demand forecasting models. The explanations
also emphasize actionable dimensions where suitable. We link domain knowledge,
forecasted values, and forecast explanations in a Knowledge Graph. The ontology
and dataset we developed for this use case are publicly available for further
research.
- Abstract(参考訳): 本稿ではセマンティック技術とAIに基づく説明可能なAIのための新しいアーキテクチャを提案する。
需要予測の領域のアーキテクチャを調整し、実世界のケーススタディでそれを検証します。
提供された説明は、特定の予測、関連するメディアイベント、関心のある外部データセットに関するメタデータに関連する特徴を記述する概念を組み合わせる。
知識グラフは、より抽象的なレベルで特徴情報を伝達する概念を提供する。
それらを使用することで、需要予測モデルに関するセンシティブな詳細を説明できない。
説明はまた、適切な動作可能な次元を強調する。
私たちは、知識グラフでドメイン知識、予測値、予測説明をリンクします。
このユースケースのために開発したオントロジーとデータセットは、さらなる研究のために公開されています。
関連論文リスト
- LinkLogic: A New Method and Benchmark for Explainable Knowledge Graph Predictions [0.5999777817331317]
本稿では、LinkLogicと呼ばれる単純なリンク予測説明法について詳細に検討する。
FB13データセットに存在する家族構造に基づいて,最初のリンク予測説明ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-02T20:22:22Z) - Counterfactual Explanations for Deep Learning-Based Traffic Forecasting [42.31238891397725]
この研究は、説明可能なAIアプローチ、反実的説明を活用し、ディープラーニングベースのトラフィック予測モデルの説明可能性とユーザビリティを高めることを目的としている。
この研究は、まず、過去の交通データと文脈変数に基づいて、交通速度を予測するディープラーニングモデルを実装する。
次に、これらの入力変数の変化が予測結果にどのように影響するかを照らすために、対実的な説明が使用される。
論文 参考訳(メタデータ) (2024-05-01T11:26:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Citation Trajectory Prediction via Publication Influence Representation
Using Temporal Knowledge Graph [52.07771598974385]
既存のアプローチは主に学術論文の時間的データとグラフデータのマイニングに依存している。
本フレームワークは,差分保存グラフ埋め込み,きめ細かい影響表現,学習に基づく軌道計算という3つのモジュールから構成される。
APSアカデミックデータセットとAIPatentデータセットの両方で実験を行った。
論文 参考訳(メタデータ) (2022-10-02T07:43:26Z) - Enriching Artificial Intelligence Explanations with Knowledge Fragments [0.415623340386296]
この研究は、特定の予測のための機能ランキングを考慮し、メディアニュースエントリ、データセットのメタデータ、Google Knowledge Graphからのエントリを豊かにすることで、説明を構築している。
需要予測に関する実世界のユースケースにおける2つのアプローチ(埋め込みベースと意味ベース)を比較した。
論文 参考訳(メタデータ) (2022-04-12T07:19:30Z) - XAI-KG: knowledge graph to support XAI and decision-making in
manufacturing [0.5872014229110215]
本稿では,予測,予測説明,推奨意思決定オプション,ユーザ行動に関するフィードバック収集を支援するオントロジーと知識グラフを提案する。
このように、予測モデル、説明、意思決定オプションの推奨を改善する手段を提供する。
論文 参考訳(メタデータ) (2021-05-05T08:42:07Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。