論文の概要: Explainable AI for tailored electricity consumption feedback -- an
experimental evaluation of visualizations
- arxiv url: http://arxiv.org/abs/2208.11408v1
- Date: Wed, 24 Aug 2022 10:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:22:51.973459
- Title: Explainable AI for tailored electricity consumption feedback -- an
experimental evaluation of visualizations
- Title(参考訳): 電力消費フィードバック調整のための説明可能なai --可視化実験による評価-
- Authors: Jacqueline Wastensteiner, Tobias M. Weiss, Felix Haag, Konstantin Hopf
- Abstract要約: XAI技術は、このようなブラックボックスを開き、検出されたパターンから人間が新たな洞察を得ることを可能にすることを目的としている。
消費者の行動,すなわち電気利用に,特定の洞察が重要な影響を及ぼす領域におけるXAIの適用について検討した。
個人の電力消費に対する特定のフィードバックが資源の保全を引き起こすことを知り、高度にパーソナライズされたフィードバックのために、MLとXAIメソッドを用いた5つの可視化を作成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning (ML) methods can effectively analyse data, recognize
patterns in them, and make high-quality predictions. Good predictions usually
come along with "black-box" models that are unable to present the detected
patterns in a human-readable way. Technical developments recently led to
eXplainable Artificial Intelligence (XAI) techniques that aim to open such
black-boxes and enable humans to gain new insights from detected patterns. We
investigated the application of XAI in an area where specific insights can have
a significant effect on consumer behaviour, namely electricity use. Knowing
that specific feedback on individuals' electricity consumption triggers
resource conservation, we created five visualizations with ML and XAI methods
from electricity consumption time series for highly personalized feedback,
considering existing domain-specific design knowledge. Our experimental
evaluation with 152 participants showed that humans can assimilate the pattern
displayed by XAI visualizations, but such visualizations should follow known
visualization patterns to be well-understood by users.
- Abstract(参考訳): 機械学習(ML)メソッドは、データを効果的に分析し、パターンを認識し、高品質な予測を行う。
よい予測は、通常、検出されたパターンを人間が読める方法で提示できない「ブラックボックス」モデルとともに現れる。
近年の技術的発展により、eXplainable Artificial Intelligence(XAI)技術は、このようなブラックボックスを開き、検出されたパターンから人間が新たな洞察を得られるようにする。
消費者の行動,すなわち電気利用に,特定の洞察が重要な影響を及ぼす領域におけるXAIの適用について検討した。
個々人の電力消費に対する具体的なフィードバックが資源保全を引き起こすことを知り、既存のドメイン固有の設計知識を考慮し、電力消費時系列からMLとXAIの手法による5つの可視化を作成し、高度にパーソナライズされたフィードバックを得た。
152名の被験者による実験結果から,人間はxaiビジュアライゼーションで表示されたパターンを同一化できるが,その可視化はユーザによってよく理解されるような既知の可視化パターンに従うべきである。
関連論文リスト
- Found in Translation: semantic approaches for enhancing AI interpretability in face verification [0.4222205362654437]
本研究は,XAIフレームワークに意味概念を統合することで,モデル出力と人間の理解の包括的ギャップを埋めることにより,これまでの研究を拡張した。
ユーザが選択した顔のランドマークによって定義された意味的特徴を用いて,グローバルな説明とローカルな説明を組み合わせた新しいアプローチを提案する。
結果は、セマンティックベースのアプローチ、特に最も詳細なセットは、従来の手法よりも、モデル決定をよりきめ細やかな理解を提供することを示している。
論文 参考訳(メタデータ) (2025-01-06T08:34:53Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Interaction as Explanation: A User Interaction-based Method for Explaining Image Classification Models [1.3597551064547502]
コンピュータビジョンでは、説明可能なAI(xAI)手法は「ブラックボックス」問題を緩和しようとする。
従来のxAI手法は、モデル予測に影響を与える入力特徴の可視化に重点を置いている。
本稿では,画像分類モデルのユーザ理解を深めるインタラクションベースのxAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T14:26:00Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Human Attention-Guided Explainable Artificial Intelligence for Computer
Vision Models [38.50257023156464]
我々は,人的注意力の知識を満足度に基づく説明可能なAI(XAI)手法に組み込むことで,その妥当性と忠実性を高めることができるかどうかを検討した。
我々はまず,オブジェクト検出モデルのための勾配に基づく新しいXAI手法を開発し,オブジェクト固有の説明を生成する。
そこで我々は,人間の注意を喚起したXAIを開発し,モデルからの説明情報を最大限に組み合わせて説明の妥当性を高める方法を学んだ。
論文 参考訳(メタデータ) (2023-05-05T15:05:07Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Addressing Bias in Visualization Recommenders by Identifying Trends in
Training Data: Improving VizML Through a Statistical Analysis of the Plotly
Community Feed [55.41644538483948]
機械学習は、高いスケーラビリティと表現力のために、視覚化レコメンデーションに対する有望なアプローチである。
本研究は,統計的解析によりトレーニングデータの傾向を特定することで,機械学習可視化推薦システムにおけるトレーニングバイアスに対処することを目的とする。
論文 参考訳(メタデータ) (2022-03-09T18:36:46Z) - A Turing Test for Transparency [0.0]
説明可能な人工知能(XAI)の中心的な目標は、人間とAIのインタラクションにおける信頼関係を改善することである。
最近の実証的な証拠は、説明が反対の効果を持つことを示している。
この効果はXAIの目的に挑戦し、透明なAI手法の責任ある使用には、人間が人間の説明から生成された機械を区別する能力を考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2021-06-21T20:09:40Z) - An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks [18.70973390984415]
機械学習のブラックボックスモデルの決定的説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
時系列画像やテキストデータ用に開発されたニューラルネットワークのアトリビューション手法を適用するための実証的研究とベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-08T10:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。