論文の概要: iNNspector: Visual, Interactive Deep Model Debugging
- arxiv url: http://arxiv.org/abs/2407.17998v1
- Date: Thu, 25 Jul 2024 12:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:08:56.340183
- Title: iNNspector: Visual, Interactive Deep Model Debugging
- Title(参考訳): iNNspector: ビジュアルでインタラクティブなディープモデルデバッグ
- Authors: Thilo Spinner, Daniel Fürst, Mennatallah El-Assady,
- Abstract要約: 本研究では,ディープラーニング実験のデータ空間を構造化する概念的枠組みを提案する。
我々のフレームワークは設計の次元を捉え、このデータを探索可能かつ抽出可能にするためのメカニズムを提案する。
我々は、ディープラーニング実験の追跡を可能にし、データのインタラクティブな可視化を提供するiNNspectorシステムを提案する。
- 参考スコア(独自算出の注目度): 8.997568393450768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning model design, development, and debugging is a process driven by best practices, guidelines, trial-and-error, and the personal experiences of model developers. At multiple stages of this process, performance and internal model data can be logged and made available. However, due to the sheer complexity and scale of this data and process, model developers often resort to evaluating their model performance based on abstract metrics like accuracy and loss. We argue that a structured analysis of data along the model's architecture and at multiple abstraction levels can considerably streamline the debugging process. Such a systematic analysis can further connect the developer's design choices to their impacts on the model behavior, facilitating the understanding, diagnosis, and refinement of deep learning models. Hence, in this paper, we (1) contribute a conceptual framework structuring the data space of deep learning experiments. Our framework, grounded in literature analysis and requirements interviews, captures design dimensions and proposes mechanisms to make this data explorable and tractable. To operationalize our framework in a ready-to-use application, we (2) present the iNNspector system. iNNspector enables tracking of deep learning experiments and provides interactive visualizations of the data on all levels of abstraction from multiple models to individual neurons. Finally, we (3) evaluate our approach with three real-world use-cases and a user study with deep learning developers and data analysts, proving its effectiveness and usability.
- Abstract(参考訳): ディープラーニングモデル設計、開発、デバッグは、ベストプラクティス、ガイドライン、試行錯誤、そしてモデル開発者の個人的な経験によって駆動されるプロセスである。
このプロセスの複数の段階で、パフォーマンスと内部モデルデータのログ化と利用が可能である。
しかしながら、このデータとプロセスの複雑さとスケールのため、モデル開発者は、精度や損失といった抽象的な指標に基づいて、モデルのパフォーマンスを評価することに頼ることが多い。
モデルアーキテクチャと複数の抽象化レベルで、構造化されたデータ解析は、デバッグプロセスをかなり合理化できる、と我々は主張する。
このような体系的な分析は、ディベロッパの設計選択とモデル行動への影響をさらに結びつけ、深層学習モデルの理解、診断、洗練を促進する。
そこで本研究では,1)深層学習実験のデータ空間を構造化する概念的枠組みを提案する。
文献分析と要求インタビューを基盤とした我々のフレームワークは、設計の次元を捉え、このデータを探索可能かつ抽出可能にするためのメカニズムを提案する。
フレームワークを使えるアプリケーションで運用するには、(2)iNNspectorシステムを提案する。
iNNspectorは、ディープラーニング実験の追跡を可能にし、複数のモデルから個々のニューロンまで、あらゆるレベルの抽象化に関するデータのインタラクティブな可視化を提供する。
最後に,3つの実世界のユースケースと,ディープラーニング開発者とデータアナリストによるユーザスタディによるアプローチの評価を行い,その有効性とユーザビリティを実証した。
関連論文リスト
- The Extrapolation Power of Implicit Models [2.3526338188342653]
暗黙のモデルは、アウト・オブ・ディストリビューション、地理的、時間的シフトといった様々な外挿シナリオでテストに投入される。
我々の実験は暗黙のモデルで常に大きな性能上の優位性を証明している。
論文 参考訳(メタデータ) (2024-07-19T16:01:37Z) - Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective [35.620874971064765]
この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
我々は,既存の研究を,深層モデルの解釈,トレーニングデータの影響,ドメイン知識の洞察の3つのカテゴリに分類する。
具体的には、XAIの方法論を、モダリティをまたいだデータのトレーニングおよびテストに関するデータマイニング操作に蒸留する。
論文 参考訳(メタデータ) (2024-01-09T06:27:09Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning dynamics from partial observations with structured neural ODEs [5.757156314867639]
本稿では,ニューラルODEに基づくシステム識別に関する幅広い物理的知見を取り入れたフレキシブルなフレームワークを提案する。
本稿では,ロボット外骨格を用いた数値シミュレーションおよび実験データセットにおける提案手法の性能について述べる。
論文 参考訳(メタデータ) (2022-05-25T07:54:10Z) - Model Complexity of Deep Learning: A Survey [79.20117679251766]
深層学習におけるモデル複雑性に関する最新の研究を体系的に概観します。
本稿では,これら2つのカテゴリに関する既存研究について,モデルフレームワーク,モデルサイズ,最適化プロセス,データ複雑性の4つの重要な要因について概説する。
論文 参考訳(メタデータ) (2021-03-08T22:39:32Z) - A Visual Analytics Framework for Explaining and Diagnosing Transfer
Learning Processes [42.57604833160855]
本稿では,深層ニューラルネットワークの学習における伝達学習プロセスの多段階探索のための視覚分析フレームワークを提案する。
本フレームワークは,ニューラルネットワークの深層学習において,既存のモデルから学習した知識がどのように新たな学習タスクに変換されるかを説明するために,マルチアスペクト設計を確立する。
論文 参考訳(メタデータ) (2020-09-15T05:59:00Z) - Demystifying Deep Learning in Predictive Spatio-Temporal Analytics: An
Information-Theoretic Framework [20.28063653485698]
ディープラーニングモデル設計と情報理論解析のための包括的なフレームワークを提供する。
まず、インタラクティブに接続された新しいディープリカレントニューラルネットワーク(I$2$DRNN)モデルを開発し、実演する。
第二に、設計モデルがPSTAタスクのマルチスケール時間依存性を学習できることを理論的に証明するために、情報理論解析を提供する。
論文 参考訳(メタデータ) (2020-09-14T10:05:14Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。