論文の概要: Mapping DNN Embedding Manifolds for Network Generalization Prediction
- arxiv url: http://arxiv.org/abs/2202.03868v1
- Date: Thu, 3 Feb 2022 21:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 21:56:33.715592
- Title: Mapping DNN Embedding Manifolds for Network Generalization Prediction
- Title(参考訳): ネットワーク一般化予測のためのDNN埋め込み多様体のマッピング
- Authors: Molly O'Brien, Julia Bukowski, Mathias Unberath, Aria Pezeshk, Greg
Hager
- Abstract要約: 組込み空間における外部操作領域マップからのラベルなし画像の仕方に基づいて、ディープニューラルネットワーク(DNN)の性能を予測する最初のネットワーク一般化予測(NGP)手法を提案する。
本手法は, 歩行者, メラノーマ, 動物分類タスクに応用し, ドメイン知識を必要とせず, 15個のNGPタスクのうち13個のアートNGPの状態を提示する。
- 参考スコア(独自算出の注目度): 5.983070102714997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding Deep Neural Network (DNN) performance in changing conditions is
essential for deploying DNNs in safety critical applications with unconstrained
environments, e.g., perception for self-driving vehicles or medical image
analysis. Recently, the task of Network Generalization Prediction (NGP) has
been proposed to predict how a DNN will generalize in a new operating domain.
Previous NGP approaches have relied on labeled metadata and known distributions
for the new operating domains. In this study, we propose the first NGP approach
that predicts DNN performance based solely on how unlabeled images from an
external operating domain map in the DNN embedding space. We demonstrate this
technique for pedestrian, melanoma, and animal classification tasks and show
state of the art NGP in 13 of 15 NGP tasks without requiring domain knowledge.
Additionally, we show that our NGP embedding maps can be used to identify
misclassified images when the DNN performance is poor.
- Abstract(参考訳): 環境変化におけるディープニューラルネットワーク(DNN)のパフォーマンスを理解することは、DNNを非制約環境(例えば自動運転車の認識や医療画像解析など)の安全クリティカルなアプリケーションにデプロイするために不可欠である。
近年,ネットワーク一般化予測(NGP)の課題は,DNNが新しいオペレーティングシステムでどのように一般化するかを予測するために提案されている。
これまでのngpアプローチは、新しい運用ドメインのラベル付きメタデータと既知のディストリビューションに依存していた。
本研究では,DNN埋め込み空間における外部操作領域マップからのラベルなし画像のみに基づいて,DNNの性能を予測する最初のNGP手法を提案する。
本手法は, 歩行者, メラノーマ, 動物分類タスクに応用し, ドメイン知識を必要とせず, 15個のNGPタスクのうち13個のアートNGPの状態を提示する。
さらに,このngp埋め込みマップは,dnnの性能が低ければ誤分類画像の識別にも利用できることを示した。
関連論文リスト
- Reducing Oversmoothing through Informed Weight Initialization in Graph Neural Networks [16.745718346575202]
本稿では,ノードやグラフの分類タスクにおいて,過度なスムース化を抑える新しいスキーム(G-Init)を提案する。
以上の結果から,新しい手法(G-Init)は深部GNNの過剰なスムース化を低減し,その有効利用を促進することが示唆された。
論文 参考訳(メタデータ) (2024-10-31T11:21:20Z) - Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に変化せず、ノード特徴は大きな深さでも情報的のままである。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Zero-shot Domain Adaptation of Heterogeneous Graphs via Knowledge
Transfer Networks [72.82524864001691]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、強力な表現学習技術として優れた性能を示している。
異なるノードタイプにルートされたラベルを使って直接学習する方法はありません。
本研究では,HGNN(HGNN-KTN)のための新しいドメイン適応手法である知識伝達ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-03T21:00:23Z) - Neuron Coverage-Guided Domain Generalization [37.77033512313927]
本稿では、ドメイン知識が利用できないドメイン一般化タスクに注目し、さらに悪いことに、1つのドメインからのサンプルのみをトレーニング中に利用することができる。
私たちの動機は、ディープニューラルネットワーク(DNN)テストの最近の進歩に由来し、DNNのニューロンカバレッジの最大化がDNNの潜在的な欠陥の探索に役立つことが示されています。
論文 参考訳(メタデータ) (2021-02-27T14:26:53Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。