論文の概要: How to quantify fields or textures? A guide to the scattering transform
- arxiv url: http://arxiv.org/abs/2112.01288v1
- Date: Tue, 30 Nov 2021 22:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 17:28:07.152719
- Title: How to quantify fields or textures? A guide to the scattering transform
- Title(参考訳): フィールドやテクスチャを定量化するには?
散乱変換のガイド
- Authors: Sihao Cheng and Brice M\'enard
- Abstract要約: 散乱変換(Mallat 2012)は、CNNから数学的アイデアを借用する強力な統計学であり、いかなる訓練も必要とせず、解釈可能である。
視覚的解釈を伴う比較的コンパクトな要約統計情報を提供し、関連する情報の大半を幅広い科学的応用で伝達することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Extracting information from stochastic fields or textures is a ubiquitous
task in science, from exploratory data analysis to classification and parameter
estimation. From physics to biology, it tends to be done either through a power
spectrum analysis, which is often too limited, or the use of convolutional
neural networks (CNNs), which require large training sets and lack
interpretability. In this paper, we advocate for the use of the scattering
transform (Mallat 2012), a powerful statistic which borrows mathematical ideas
from CNNs but does not require any training, and is interpretable. We show that
it provides a relatively compact set of summary statistics with visual
interpretation and which carries most of the relevant information in a wide
range of scientific applications. We present a non-technical introduction to
this estimator and we argue that it can benefit data analysis, comparison to
models and parameter inference in many fields of science. Interestingly,
understanding the core operations of the scattering transform allows one to
decipher many key aspects of the inner workings of CNNs.
- Abstract(参考訳): 確率場やテクスチャから情報を抽出することは、探索的データ分析から分類やパラメータ推定まで、科学におけるユビキタスなタスクである。
物理学から生物学まで、パワースペクトル分析(power spectrum analysis)や、大きなトレーニングセットと解釈可能性の欠如を必要とする畳み込みニューラルネットワーク(convolutional neural network:cnns)によって行われる傾向がある。
本稿では,cnnから数学的アイデアを借用するが,何の訓練も必要とせず,解釈可能な強力な統計量である散乱変換(mallat 2012)の利用を提唱する。
視覚的な解釈を伴う比較的コンパクトな要約統計のセットを提供し、関連する情報の大部分を幅広い科学応用で担っていることを示す。
我々はこの推定器を非技術的に紹介し、多くの科学分野でのデータ分析、モデルとの比較、パラメータ推論に効果があると主張する。
興味深いことに、散乱変換のコア操作を理解することで、cnnの内部動作の多くの重要な側面を解読することができる。
関連論文リスト
- Trade-Offs of Diagonal Fisher Information Matrix Estimators [53.35448232352667]
Fisher情報行列は、ニューラルネットワークのパラメータ空間の局所幾何学を特徴付けるのに使うことができる。
精度とサンプルの複雑さが関連する分散に依存する2つの人気推定器について検討する。
分散のバウンダリを導出し、回帰と分類のためにニューラルネットワークでそれらをインスタンス化する。
論文 参考訳(メタデータ) (2024-02-08T03:29:10Z) - Learnable wavelet neural networks for cosmological inference [5.1268138545584145]
学習可能な散乱変換は、トレーニング可能なウェーブレットをフィルタとして使用する畳み込みニューラルネットワークの一種である。
本稿では,散乱変換に基づく2つのモデルについて述べる。
散乱アーキテクチャは、小さなトレーニングデータサンプルの場合において、CNNよりもはるかに優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-24T22:12:16Z) - Femtosecond pulse parameter estimation from photoelectron momenta using
machine learning [0.0]
畳み込みニューラルネットワーク(CNN)は、特徴抽出やパラメータ推定といったタスクに対する驚くほどの明度を実証している。
ここでは、強電界電離光電子スペクトルを用いてCNNを試験し、実験データを逆転させる理論データセットのトレーニングを行う。
論文 参考訳(メタデータ) (2023-03-24T11:58:06Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - An Empirical Investigation of Model-to-Model Distribution Shifts in
Trained Convolutional Filters [2.0305676256390934]
本稿では,様々なコンピュータビジョンタスクに使用される画像データの分布変化について検討した結果について述べる。
元のトレーニングデータやテストデータを解析する代わりに、訓練されたモデルの学習重量の変化を研究することを提案する。
論文 参考訳(メタデータ) (2022-01-20T21:48:12Z) - A Light-weight Interpretable CompositionalNetwork for Nuclei Detection
and Weakly-supervised Segmentation [10.196621315018884]
ディープニューラルネットワークは通常、膨大なパラメータをトレーニングするために大量の注釈付きデータを必要とする。
我々は,特に孤立した核に部分的なアノテーションを必要とするデータ効率モデルを構築することを提案する。
論文 参考訳(メタデータ) (2021-10-26T16:44:08Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Transformation Importance with Applications to Cosmology [13.72250424474013]
本稿では,変換空間における特徴に重きを置く新しい手法を提案し,十分に訓練されたモデルにポストホックを適用する。
TRans IMportanceは、シミュレーションデータ上のディープニューラルネットワーク(DNN)を用いた宇宙パラメータ推定問題によって動機付けられている。
論文 参考訳(メタデータ) (2020-03-04T07:50:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。