論文の概要: Explainable AI based System for Supply Air Temperature Forecast
- arxiv url: http://arxiv.org/abs/2501.05163v1
- Date: Thu, 09 Jan 2025 11:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:58:16.620563
- Title: Explainable AI based System for Supply Air Temperature Forecast
- Title(参考訳): 給気温度予測のための説明可能なAIベースシステム
- Authors: Marika Eik, Ahmet Kose, Hossein Nourollahi Hokmabad, Juri Belikov,
- Abstract要約: 本稿では,エアハンドリングユニット(AHU)の自動給気温度(ASAT)制御における予測モデルの透明性と理解を向上させるために,説明可能なAI(XAI)技術の適用について検討する。
本研究はXAI手法の1つを用いている: シェープ値(Shapley values)は、各特徴の推論を明らかにし、最終的なASAT予測への寄与を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper explores the application of Explainable AI (XAI) techniques to improve the transparency and understanding of predictive models in control of automated supply air temperature (ASAT) of Air Handling Unit (AHU). The study focuses on forecasting of ASAT using a linear regression with Huber loss. However, having only a control curve without semantic and/or physical explanation is often not enough. The present study employs one of the XAI methods: Shapley values, which allows to reveal the reasoning and highlight the contribution of each feature to the final ASAT forecast. In comparison to other XAI methods, Shapley values have solid mathematical background, resulting in interpretation transparency. The study demonstrates the contrastive explanations--slices, for each control value of ASAT, which makes it possible to give the client objective justifications for curve changes.
- Abstract(参考訳): 本稿では,エアハンドリングユニット(AHU)の自動給気温度(ASAT)制御における予測モデルの透明性と理解を向上させるために,説明可能なAI(XAI)技術の適用について検討する。
本研究は,ハマー損失を伴う線形回帰を用いたASATの予測に焦点を当てた。
しかし、意味論や物理的説明のない制御曲線だけでは不十分であることが多い。
本研究はXAI手法の1つを用いている: シェープ値(Shapley values)は、各特徴の推論を明らかにし、最終的なASAT予測への寄与を明らかにする。
他のXAI法と比較して、Shapleyの値は数学的背景がしっかりしており、解釈の透明性をもたらす。
この研究は、ASATの各制御値に対して、対照的な説明(スライス)を示し、これにより、曲線変化に対するクライアントの客観的な正当化を可能にする。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Introducing δ-XAI: a novel sensitivity-based method for local AI explanations [42.06878765569675]
ハイパフォーマンスなAI/MLモデルは、しばしば解釈可能性に欠け、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
本稿では、デルタ指数を拡張してMLモデル予測の局所的な説明を提供する新しいデルタXAI法を提案する。
論文 参考訳(メタデータ) (2024-07-25T19:07:49Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - Towards an end-to-end artificial intelligence driven global weather forecasting system [57.5191940978886]
我々は,地球規模の気象変動に対するAIに基づくデータ同化モデル,すなわちAdasを提案する。
我々は,アダスが地球観測を同化して高品質な分析を行い,長期にわたって安定して運用できることを実証した。
この手法を現実のシナリオに適用するのは,私たちが初めてです。
論文 参考訳(メタデータ) (2023-12-18T09:05:28Z) - BSED: Baseline Shapley-Based Explainable Detector [30.93533517524986]
ベースラインシェープ型説明可能検出器(BSED)を提案する。
BSEDはShapley値をオブジェクト検出に拡張し、解釈の妥当性を高める。
BSEDの処理コストは妥当範囲内であり、元のShapley値は計算コストが禁じられている。
論文 参考訳(メタデータ) (2023-08-14T22:47:48Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Ground Truth Evaluation of Neural Network Explanations with CLEVR-XAI [12.680653816836541]
我々は,CLEVR視覚質問応答タスクに基づくXAI手法の基盤的真理に基づく評価フレームワークを提案する。
本フレームワークは,(1)選択的,(2)制御,(3)リアルなテストベッドをニューラルネットワークの説明評価のために提供する。
論文 参考訳(メタデータ) (2020-03-16T14:43:33Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。