論文の概要: DORA: Exploring outlier representations in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2206.04530v1
- Date: Thu, 9 Jun 2022 14:25:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 12:45:54.707190
- Title: DORA: Exploring outlier representations in Deep Neural Networks
- Title(参考訳): DORA: ディープニューラルネットワークにおける外部表現の探索
- Authors: Kirill Bykov, Mayukh Deb, Dennis Grinwald, Klaus-Robert M\"uller,
Marina M.-C. H\"ohne
- Abstract要約: DORA(Data-agnOstic Representation Analysis)は,Deep Neural Networksにおいて,感染する可能性のある表現を検出するための,最初の自動データ認識手法である。
DORAによって検出された汚染された表現は,任意のデータセット中の感染サンプルを検出するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) draw their power from the representations they
learn. In recent years, however, researchers have found that DNNs, while being
incredibly effective in learning complex abstractions, also tend to be infected
with artifacts, such as biases, Clever Hanses (CH), or Backdoors, due to
spurious correlations inherent in the training data. So far, existing methods
for uncovering such artifactual and malicious behavior in trained models focus
on finding artifacts in the input data, which requires both availabilities of a
data set and human intervention. In this paper, we introduce DORA
(Data-agnOstic Representation Analysis): the first automatic data-agnostic
method for the detection of potentially infected representations in Deep Neural
Networks. We further show that contaminated representations found by DORA can
be used to detect infected samples in any given dataset. We qualitatively and
quantitatively evaluate the performance of our proposed method in both,
controlled toy scenarios, and in real-world settings, where we demonstrate the
benefit of DORA in safety-critical applications.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、学習した表現からパワーを引き出す。
しかし近年、DNNは複雑な抽象化を学ぶのに驚くほど効果的であるが、トレーニングデータに固有の急激な相関関係のため、バイアス、クレバーハンゼ(CH)、バックドアなどの人工物に感染する傾向にあることが研究で判明した。
これまでのところ、トレーニングされたモデルのアーティファクトと悪意のある振る舞いを明らかにする既存の方法は、入力データ内のアーティファクトを見つけることに焦点を当てている。
本稿では、深層ニューラルネットワークにおいて、潜在的に感染した表現を検出する最初のデータ非依存手法であるdora(data-agnostic representation analysis)を紹介する。
さらに,doraが検出する汚染表現は,任意のデータセットで感染したサンプルを検出できることを示した。
我々は,提案手法の性能を,制御された玩具のシナリオと現実世界の両方で質的に定量的に評価し,安全クリティカルなアプリケーションにおけるDORAのメリットを実証する。
関連論文リスト
- Dynamical similarity analysis uniquely captures how computations develop in RNNs [3.037387520023979]
最近の研究では、いくつかの指標が刺激的なシグナルに反応し、誤った結果をもたらすことが示されている。
本稿では、リカレントニューラルネットワーク(RNN)における合成学習により、動的表現アライメントメトリクスのテストケースを提供できることを提案する。
最近提案された動的類似性解析 (DSA) は, より頑健で, 行動関連表現を確実に識別できることを示す。
論文 参考訳(メタデータ) (2024-10-31T16:07:21Z) - Interactive dense pixel visualizations for time series and model attribution explanations [8.24039921933289]
DAVOTSは、生の時系列データ、ニューラルネットワークのアクティベーション、高密度ピクセル可視化における属性を探索する、インタラクティブなビジュアル分析アプローチである。
可視化されたデータドメインにクラスタリングアプローチを適用し、グループをハイライトし、個々のデータ探索と組み合わせたデータ探索のための順序付け戦略を示す。
論文 参考訳(メタデータ) (2024-08-27T14:02:21Z) - Tipping Points of Evolving Epidemiological Networks: Machine
Learning-Assisted, Data-Driven Effective Modeling [0.0]
適応型感受性感染症(SIS)疫学ネットワークのチップポイント集団動態を,データ駆動型機械学習支援方式で検討した。
複素実効微分方程式(eSDE)を物理的に有意な粗い平均場変数で同定する。
本研究では, 頻繁な現象の統計を, 繰り返しブルート力シミュレーションと, 確立された数学的・計算ツールを用いて研究する。
論文 参考訳(メタデータ) (2023-11-01T19:33:03Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Sparse Relational Reasoning with Object-Centric Representations [78.83747601814669]
対象中心表現の操作において,リレーショナルニューラルアーキテクチャによって学習されたソフトルールの構成可能性について検討する。
特に特徴量の増加は,いくつかのモデルの性能を向上し,より単純な関係をもたらすことが判明した。
論文 参考訳(メタデータ) (2022-07-15T14:57:33Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。