論文の概要: In-Distribution Interpretability for Challenging Modalities
- arxiv url: http://arxiv.org/abs/2007.00758v2
- Date: Tue, 7 Jul 2020 15:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:17:50.762416
- Title: In-Distribution Interpretability for Challenging Modalities
- Title(参考訳): 混成モダリティの分布内解釈可能性
- Authors: Cosmas Hei{\ss}, Ron Levie, Cinjon Resnick, Gitta Kutyniok, Joan Bruna
- Abstract要約: 最近の研究は、このような説明の意味性を改善するために生成モデルを利用する直感的なフレームワークを導入している。
本研究は,都市環境の音楽と物理シミュレーションという,多様かつ困難なモダリティを解釈するために,この手法の柔軟性を示すものである。
- 参考スコア(独自算出の注目度): 34.35083996747926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is widely recognized that the predictions of deep neural networks are
difficult to parse relative to simpler approaches. However, the development of
methods to investigate the mode of operation of such models has advanced
rapidly in the past few years. Recent work introduced an intuitive framework
which utilizes generative models to improve on the meaningfulness of such
explanations. In this work, we display the flexibility of this method to
interpret diverse and challenging modalities: music and physical simulations of
urban environments.
- Abstract(参考訳): ディープニューラルネットワークの予測は、単純なアプローチと比較して解析が難しいことが広く認識されている。
しかし、こうしたモデルの動作モードを調査する手法の開発は、ここ数年で急速に進展している。
近年,このような説明の有意義性を改善するために,生成モデルを用いた直感的フレームワークが導入された。
本研究は,都市環境の音楽と物理シミュレーションという,多様かつ困難なモダリティを解釈するための手法の柔軟性を示す。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Interpreting Temporal Graph Neural Networks with Koopman Theory [9.088336125738385]
時間グラフに対する説明可能性のアプローチを導入する。
本稿では,STGNNの決定過程を解釈する2つの方法を提案する。
本稿では,感染時間や感染ノードなどの解釈可能な特徴を,拡散過程の文脈で正確に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-17T11:56:33Z) - Deep Learning for Koopman Operator Estimation in Idealized Atmospheric Dynamics [2.2489531925874013]
ディープラーニングは、気象予報に革命をもたらしており、新しいデータ駆動モデルは、中期予測のための運用物理モデルと同等の精度を達成している。
これらのモデルは解釈可能性に欠けることが多く、基礎となる力学を理解するのが難しく、説明が難しい。
本稿では、データ駆動モデルの透明性を高めるために、複雑な非線形力学の線形表現を提供するクープマン作用素を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T13:56:54Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。