論文の概要: NN-Copula-CD: A Copula-Guided Interpretable Neural Network for Change
Detection in Heterogeneous Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2303.17448v1
- Date: Thu, 30 Mar 2023 15:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 13:12:06.170706
- Title: NN-Copula-CD: A Copula-Guided Interpretable Neural Network for Change
Detection in Heterogeneous Remote Sensing Images
- Title(参考訳): NN-Copula-CD:異種リモートセンシング画像における変化検出のためのコプラ誘導型解釈型ニューラルネットワーク
- Authors: Weiming Li, Xueqian Wang, Gang Li
- Abstract要約: 不均一なリモートセンシング画像における変化検出は、現実の緊急事態に対して実用的で困難な問題である。
本稿では,コプラ誘導型解釈型ニューラルネットワークに基づく知識データ駆動型ヘテロジニアスCD法を提案する。
NN-Copula-CDでは、単純な完全連結ニューラルネットワークを監督する損失として、Copulaの数学的特性が設計されている。
- 参考スコア(独自算出の注目度): 9.533033783967106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Change detection (CD) in heterogeneous remote sensing images is a practical
and challenging issue for real-life emergencies. In the past decade, the
heterogeneous CD problem has significantly benefited from the development of
deep neural networks (DNN). However, the data-driven DNNs always perform like a
black box where the lack of interpretability limits the trustworthiness and
controllability of DNNs in most practical CD applications. As a strong
knowledge-driven tool to measure correlation between random variables, Copula
theory has been introduced into CD, yet it suffers from non-robust CD
performance without manual prior selection for Copula functions. To address the
above issues, we propose a knowledge-data-driven heterogeneous CD method
(NN-Copula-CD) based on the Copula-guided interpretable neural network. In our
NN-Copula-CD, the mathematical characteristics of Copula are designed as the
losses to supervise a simple fully connected neural network to learn the
correlation between bi-temporal image patches, and then the changed regions are
identified via binary classification for the correlation coefficients of all
image patch pairs of the bi-temporal images. We conduct in-depth experiments on
three datasets with multimodal images (e.g., Optical, SAR, and NIR), where the
quantitative results and visualized analysis demonstrate both the effectiveness
and interpretability of the proposed NN-Copula-CD.
- Abstract(参考訳): 異種リモートセンシング画像における変化検出(cd)は,実生活の緊急時において実用的で困難な課題である。
過去10年間で、異種CD問題はディープニューラルネットワーク(DNN)の開発から大きな恩恵を受けている。
しかし、データ駆動型DNNは、ほとんどの実用的なCDアプリケーションにおいて、解釈可能性の欠如によってDNNの信頼性と制御性が制限されるブラックボックスのように常に機能する。
確率変数間の相関を測る強力な知識駆動ツールとして、Copula理論はCDに導入されたが、Copula関数を手動で選択することなく、非破壊CDのパフォーマンスに悩まされている。
本稿では,コプラ誘導型解釈可能なニューラルネットワークに基づく知識データ駆動不均質cd法(nn-copula-cd)を提案する。
NN-Copula-CDでは,両時間画像パッチ間の相関関係を学習するために,単純な完全連結ニューラルネットワークを監督する損失としてCopulaの数学的特性を設計し,両時間画像のすべての画像パッチペアの相関係数のバイナリ分類により,変化領域を同定する。
提案するNN-Copula-CDの有効性と解釈性の両方を定量的に検証し,マルチモーダル画像(光, SAR, NIR)を用いた3つのデータセットの詳細な実験を行った。
関連論文リスト
- OUCopula: Bi-Channel Multi-Label Copula-Enhanced Adapter-Based CNN for Myopia Screening Based on OU-UWF Images [6.331220638842259]
近縁超広視野撮影(UWF)による近視性検診は眼科成績に有意な影響を及ぼすと考えられた。
近年,眼科と深部学習(DL)の多分野的な研究は,主に単一眼画像を用いた疾患の分類と診断に焦点をあてている。
我々は,OU UWF Fundus image (OUCopula) を用いたCNN学習の枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-18T17:12:00Z) - CeCNN: Copula-enhanced convolutional neural networks in joint prediction
of refraction error and axial length based on ultra-widefield fundus images [6.787893694522311]
本稿では,ガウスコプラによる応答間の依存性を組み込んだ,コプラ強化畳み込みニューラルネットワーク(CeCNN)フレームワークを提案する。
バックボーンモデルに依存性情報を追加すると,CeCNNの精度が向上することを示す。
論文 参考訳(メタデータ) (2023-11-07T13:06:50Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - An out-of-distribution discriminator based on Bayesian neural network
epistemic uncertainty [0.19573380763700712]
ベイズニューラルネットワーク(Bayesian Neural Network, BNN)は、不確実性を定量化するための組み込み能力を備えた、重要なタイプのニューラルネットワークである。
本稿では,BNNにおける失語症およびてんかんの不確実性とその計算方法について論じる。
論文 参考訳(メタデータ) (2022-10-18T21:15:33Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Imaging Conductivity from Current Density Magnitude using Neural
Networks [1.8692254863855962]
内部電流密度から導電率を撮像するニューラルネットワークに基づく再構成手法を開発した。
この手法は,データノイズの存在に関して,顕著な堅牢性を持っていることが観察された。
論文 参考訳(メタデータ) (2022-04-05T18:31:03Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z) - Understanding Graph Isomorphism Network for rs-fMRI Functional
Connectivity Analysis [49.05541693243502]
グラフ同型ネットワーク(GIN)を用いてfMRIデータを解析するフレームワークを開発する。
本稿では,GINがグラフ空間における畳み込みニューラルネットワーク(CNN)の二重表現であることを示す。
我々は,提案したGINをワンホット符号化で調整するGNNに対して,CNNベースのサリエンシマップ技術を利用する。
論文 参考訳(メタデータ) (2020-01-10T23:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。