論文の概要: EXMOS: Explanatory Model Steering Through Multifaceted Explanations and
Data Configurations
- arxiv url: http://arxiv.org/abs/2402.00491v1
- Date: Thu, 1 Feb 2024 10:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 15:37:44.234870
- Title: EXMOS: Explanatory Model Steering Through Multifaceted Explanations and
Data Configurations
- Title(参考訳): EXMOS:多面的説明とデータ構成による説明モデルステアリング
- Authors: Aditya Bhattacharya, Simone Stumpf, Lucija Gosak, Gregor Stiglic,
Katrien Verbert
- Abstract要約: 本研究では,対話型機械学習システムにおけるデータ中心およびモデル中心の説明の影響について検討する。
我々は医療専門家とともに、信頼、理解可能性、モデル改善に対する様々な説明の影響について調査した。
この結果から,データ構成中にユーザを導くためのグローバルモデル中心の説明が不十分であることが明らかになった。
- 参考スコア(独自算出の注目度): 5.132827811038276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations in interactive machine-learning systems facilitate debugging and
improving prediction models. However, the effectiveness of various global
model-centric and data-centric explanations in aiding domain experts to detect
and resolve potential data issues for model improvement remains unexplored.
This research investigates the influence of data-centric and model-centric
global explanations in systems that support healthcare experts in optimising
models through automated and manual data configurations. We conducted
quantitative (n=70) and qualitative (n=30) studies with healthcare experts to
explore the impact of different explanations on trust, understandability and
model improvement. Our results reveal the insufficiency of global model-centric
explanations for guiding users during data configuration. Although data-centric
explanations enhanced understanding of post-configuration system changes, a
hybrid fusion of both explanation types demonstrated the highest effectiveness.
Based on our study results, we also present design implications for effective
explanation-driven interactive machine-learning systems.
- Abstract(参考訳): インタラクティブな機械学習システムの説明は、予測モデルのデバッグと改善を容易にする。
しかし、様々なグローバルモデル中心およびデータ中心の説明が、モデル改善のための潜在的なデータ問題の検出と解決をドメインの専門家に支援する効果は、まだ未定である。
本研究では,自動および手動データ設定によるモデル最適化を支援するシステムにおける,データ中心およびモデル中心のグローバル説明の影響について検討する。
定量的(n=70)および質的(n=30)調査を行い,信頼性,理解可能性,モデル改善に対する異なる説明の影響について検討した。
その結果,データ構成中にユーザを誘導するグローバルモデル中心の説明が不十分であることが明らかになった。
データ中心の説明は、構成後システムの変化の理解を深めたが、両方の説明タイプのハイブリッド融合が最も有効であった。
また,本研究の結果から,効果的な説明駆動型対話型機械学習システムの設計について述べる。
関連論文リスト
- iNNspector: Visual, Interactive Deep Model Debugging [8.997568393450768]
本研究では,ディープラーニング実験のデータ空間を構造化する概念的枠組みを提案する。
我々のフレームワークは設計の次元を捉え、このデータを探索可能かつ抽出可能にするためのメカニズムを提案する。
我々は、ディープラーニング実験の追跡を可能にし、データのインタラクティブな可視化を提供するiNNspectorシステムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:41Z) - On the Robustness of Global Feature Effect Explanations [17.299418894910627]
ブラックボックス教師あり学習における予測的特徴の影響は、応用科学におけるモデルと科学的発見に不可欠な診断ツールである。
部分依存プロットのロバスト性の評価と局所効果の蓄積に関する理論的考察を紹介する。
論文 参考訳(メタデータ) (2024-06-13T12:54:53Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - Better, Not Just More: Data-Centric Machine Learning for Earth Observation [16.729827218159038]
モデル中心の視点から補完的なデータ中心の視点へのシフトは、より正確性、一般化能力、そしてエンドユーザーアプリケーションへの影響を高めるために必要である。
本研究は、地理空間データに対する自動データ中心学習手法の正確な分類と概要と、その定義を提示する。
論文 参考訳(メタデータ) (2023-12-08T19:24:05Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - Lessons Learned from EXMOS User Studies: A Technical Report Summarizing
Key Takeaways from User Studies Conducted to Evaluate The EXMOS Platform [5.132827811038276]
信頼,理解可能性,モデル改善の3つの重要な側面に異なる説明型の影響を明らかにすることを目的とした2つのユーザスタディ。
その結果,データ構成の複雑なプロセスにおいて,ユーザを効果的に導くには,グローバルなモデル中心の説明だけでは不十分であることが示唆された。
本稿では、説明によって駆動される対話型機械学習システムの開発に不可欠な意味について述べる。
論文 参考訳(メタデータ) (2023-10-03T14:04:45Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Striving for data-model efficiency: Identifying data externalities on
group performance [75.17591306911015]
信頼できる、効果的で責任ある機械学習システムの構築は、トレーニングデータとモデリング決定の違いが、予測パフォーマンスにどのように影響するかを理解することに集中する。
我々は、特定のタイプのデータモデル非効率性に注目し、一部のソースからトレーニングデータを追加することで、集団の重要なサブグループで評価されるパフォーマンスを実際に低下させることができる。
以上の結果から,データ効率が正確かつ信頼性の高い機械学習の鍵となることが示唆された。
論文 参考訳(メタデータ) (2022-11-11T16:48:27Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。