論文の概要: In-Distribution Interpretability for Challenging Modalities
- arxiv url: http://arxiv.org/abs/2007.00758v2
- Date: Tue, 7 Jul 2020 15:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:17:50.762416
- Title: In-Distribution Interpretability for Challenging Modalities
- Title(参考訳): 混成モダリティの分布内解釈可能性
- Authors: Cosmas Hei{\ss}, Ron Levie, Cinjon Resnick, Gitta Kutyniok, Joan Bruna
- Abstract要約: 最近の研究は、このような説明の意味性を改善するために生成モデルを利用する直感的なフレームワークを導入している。
本研究は,都市環境の音楽と物理シミュレーションという,多様かつ困難なモダリティを解釈するために,この手法の柔軟性を示すものである。
- 参考スコア(独自算出の注目度): 34.35083996747926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is widely recognized that the predictions of deep neural networks are
difficult to parse relative to simpler approaches. However, the development of
methods to investigate the mode of operation of such models has advanced
rapidly in the past few years. Recent work introduced an intuitive framework
which utilizes generative models to improve on the meaningfulness of such
explanations. In this work, we display the flexibility of this method to
interpret diverse and challenging modalities: music and physical simulations of
urban environments.
- Abstract(参考訳): ディープニューラルネットワークの予測は、単純なアプローチと比較して解析が難しいことが広く認識されている。
しかし、こうしたモデルの動作モードを調査する手法の開発は、ここ数年で急速に進展している。
近年,このような説明の有意義性を改善するために,生成モデルを用いた直感的フレームワークが導入された。
本研究は,都市環境の音楽と物理シミュレーションという,多様かつ困難なモダリティを解釈するための手法の柔軟性を示す。
関連論文リスト
- Neural Interpretable Reasoning [12.106771300842945]
ディープラーニングにおける解釈可能性を実現するための新しいモデリングフレームワークを定式化する。
この複雑性はマルコフ的性質として解釈可能性を扱うことにより緩和できることを示す。
我々はニューラルジェネレーションと解釈可能な実行という新しいモデリングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-02-17T10:33:24Z) - Learnable Infinite Taylor Gaussian for Dynamic View Rendering [55.382017409903305]
本稿では,ガウスの時間的進化をモデル化するための学習可能なテイラー式に基づく新しいアプローチを提案する。
提案手法は,本領域における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-12-05T16:03:37Z) - Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Interpreting Temporal Graph Neural Networks with Koopman Theory [9.088336125738385]
時間グラフに対する説明可能性のアプローチを導入する。
本稿では,STGNNの決定過程を解釈する2つの方法を提案する。
本稿では,感染時間や感染ノードなどの解釈可能な特徴を,拡散過程の文脈で正確に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-17T11:56:33Z) - Deep Learning for Koopman Operator Estimation in Idealized Atmospheric Dynamics [2.2489531925874013]
ディープラーニングは、気象予報に革命をもたらしており、新しいデータ駆動モデルは、中期予測のための運用物理モデルと同等の精度を達成している。
これらのモデルは解釈可能性に欠けることが多く、基礎となる力学を理解するのが難しく、説明が難しい。
本稿では、データ駆動モデルの透明性を高めるために、複雑な非線形力学の線形表現を提供するクープマン作用素を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T13:56:54Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。