論文の概要: Decontextualized learning for interpretable hierarchical representations
of visual patterns
- arxiv url: http://arxiv.org/abs/2009.09893v1
- Date: Mon, 31 Aug 2020 14:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:25:18.458649
- Title: Decontextualized learning for interpretable hierarchical representations
of visual patterns
- Title(参考訳): 視覚パターンの解釈可能な階層表現のための非文脈学習
- Authors: R. Ian Etheredge, Manfred Schartl, Alex Jordan
- Abstract要約: 本稿では、この問題に対処するために設計されたアルゴリズムと訓練パラダイムについて述べる。
DHRLは、小さなデータセットの制限に対処し、階層的に整理された一連の不整合を奨励する。
変分推論を用いた複雑な階層パターン解析のためのトラクタブルパスの提供に加えて、このアプローチは生成的であり、経験的および理論的アプローチと直接結合することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Apart from discriminative models for classification and object detection
tasks, the application of deep convolutional neural networks to basic research
utilizing natural imaging data has been somewhat limited; particularly in cases
where a set of interpretable features for downstream analysis is needed, a key
requirement for many scientific investigations. We present an algorithm and
training paradigm designed specifically to address this: decontextualized
hierarchical representation learning (DHRL). By combining a generative model
chaining procedure with a ladder network architecture and latent space
regularization for inference, DHRL address the limitations of small datasets
and encourages a disentangled set of hierarchically organized features. In
addition to providing a tractable path for analyzing complex hierarchal
patterns using variation inference, this approach is generative and can be
directly combined with empirical and theoretical approaches. To highlight the
extensibility and usefulness of DHRL, we demonstrate this method in application
to a question from evolutionary biology.
- Abstract(参考訳): 分類および物体検出タスクのための識別モデルとは別に、自然画像データを用いた基礎研究への深層畳み込みニューラルネットワークの適用は、特に下流解析に一連の解釈可能な特徴を必要とする場合において、多くの科学研究において重要な要件となっている。
本稿では,dhrl(decontextualized hierarchical representation learning)という,これに対処するために特別に設計されたアルゴリズムとトレーニングパラダイムを提案する。
生成的モデル連鎖手順とラダーネットワークアーキテクチャと、推論のための潜在空間正規化を組み合わせることで、dhrlは小さなデータセットの制限に対処し、階層的に整理された機能の分離を奨励する。
変分推論を用いた複雑な階層パターン解析のためのトラクタブルパスの提供に加えて、このアプローチは生成的であり、経験的および理論的アプローチと直接結合することができる。
DHRLの拡張性と有用性を強調するため,本手法を進化生物学の課題に適用する。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Finding Alignments Between Interpretable Causal Variables and
Distributed Neural Representations [62.65877150123775]
因果抽象化は、説明可能な人工知能のための有望な理論的枠組みである。
既存の因果抽象法では、高レベルモデルと低レベルモデルの間のアライメントをブルートフォースで探索する必要がある。
これらの制約を克服する分散アライメントサーチ(DAS)を提案する。
論文 参考訳(メタデータ) (2023-03-05T00:57:49Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Simplicial Attention Networks [0.0]
異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
論文 参考訳(メタデータ) (2022-03-14T20:47:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Redefining Neural Architecture Search of Heterogeneous Multi-Network
Models by Characterizing Variation Operators and Model Components [71.03032589756434]
複素領域における異なる変動演算子の効果について検討する。
モデルの複雑さと性能に影響を及ぼす変化演算子と、それを構成する異なる部分の質を推定する様々な指標に依存するモデルの両方を特徴付ける。
論文 参考訳(メタデータ) (2021-06-16T17:12:26Z) - Layer-stacked Attention for Heterogeneous Network Embedding [0.0]
レイヤスタックATTention Embedding (LATTE)は、各レイヤで上位のメタ関係を自動的に分解するアーキテクチャである。
LATTEは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能なアグリゲーションスキームを提供する。
帰納的ノード分類タスクと帰納的ノード分類タスクの両方において、LATTEは既存のアプローチと比較して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-09-17T05:13:41Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。