論文の概要: Examining the Difference Among Transformers and CNNs with Explanation
Methods
- arxiv url: http://arxiv.org/abs/2212.06872v1
- Date: Tue, 13 Dec 2022 19:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 14:52:44.734625
- Title: Examining the Difference Among Transformers and CNNs with Explanation
Methods
- Title(参考訳): 説明法による変圧器とCNNの違いの検討
- Authors: Mingqi Jiang, Saeed Khorram and Li Fuxin
- Abstract要約: 本稿では,データセット全体に対して深い説明アルゴリズムを適用する手法を提案する。
我々は、畳み込みネットワーク(CNN)、グローバルアテンションネットワーク、ローカルアテンションネットワークなど、さまざまなタイプの視覚認識バックボーンを比較した。
- 参考スコア(独自算出の注目度): 4.550597218580107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a methodology that systematically applies deep explanation
algorithms on a dataset-wide basis, to compare different types of visual
recognition backbones, such as convolutional networks (CNNs), global attention
networks, and local attention networks. Examination of both qualitative
visualizations and quantitative statistics across the dataset helps us to gain
intuitions that are not just anecdotal, but are supported by the statistics
computed on the entire dataset. Specifically, we propose two methods. The first
one, sub-explanation counting, systematically searches for minimally-sufficient
explanations of all images and count the amount of sub-explanations for each
network. The second one, called cross-testing, computes salient regions using
one network and then evaluates the performance by only showing these regions as
an image to other networks. Through a combination of qualitative insights and
quantitative statistics, we illustrate that 1) there are significant
differences between the salient features of CNNs and attention models; 2) the
occlusion-robustness in local attention models and global attention models may
come from different decision-making mechanisms.
- Abstract(参考訳): 提案手法は,畳み込みネットワーク(CNN)やグローバルアテンションネットワーク,ローカルアテンションネットワークなど,さまざまなタイプの視覚認識バックボーンを比較し,データセット全体の深い説明アルゴリズムを体系的に適用する手法である。
定性的な視覚化とデータセット全体の量的統計の両方を調べることは、説明的なだけでなく、データセット全体に計算された統計によって支持される直観を得るのに役立ちます。
具体的には2つの方法を提案する。
第1のサブエクスラレーションカウントは、すべての画像の最小限の十分な説明を体系的に検索し、各ネットワークのサブエクスラレーションの量をカウントする。
2つめはクロステストと呼ばれ、ひとつのネットワークを使ってサルエント領域を計算し、その領域を他のネットワークにイメージとして示すだけでパフォーマンスを評価する。
質的な洞察と定量的統計を組み合わせることで
1)CNNの特徴と注意モデルとの間に有意な差異がある。
2) 局所注意モデルおよびグローバル注意モデルにおける咬合乱れは, 異なる意思決定機構から生じる可能性がある。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Identifiability Results for Multimodal Contrastive Learning [72.15237484019174]
本研究では,以前研究したマルチビュー設定よりも,より一般的な設定で共有要因を復元可能であることを示す。
本研究は,マルチモーダル表現学習の理論的基盤を提供し,マルチモーダルコントラスト学習を実践的に効果的に設定する方法を説明する。
論文 参考訳(メタデータ) (2023-03-16T09:14:26Z) - Interpretable Diversity Analysis: Visualizing Feature Representations In
Low-Cost Ensembles [0.0]
本稿では,多様性を定性的に分析できるいくつかの解釈可能性手法を提案する。
2つの低コストアンサンブルアルゴリズムを用いて,子ネットワーク間の特徴表現の多様性を比較することによって,これらの手法を実証する。
論文 参考訳(メタデータ) (2023-02-12T00:32:03Z) - Similarity of Neural Architectures using Adversarial Attack
Transferability [50.50231315195932]
ニューラルネットワーク間の定量的かつスケーラブルな類似度尺度を設計する。
我々は69の最先端画像ネット分類器を大規模に解析する。
我々の結果は、異なるコンポーネントを持つ多様なニューラルアーキテクチャの開発がなぜ必要かについての洞察を提供する。
論文 参考訳(メタデータ) (2022-10-20T16:56:47Z) - Unsupervised Multimodal Change Detection Based on Structural
Relationship Graph Representation Learning [40.631724905575034]
教師なしマルチモーダル変化検出は、時間に敏感な緊急アプリケーションにおいて重要な役割を果たす、実用的で困難なトピックである。
マルチモーダル画像における2種類のモダリティ非依存構造関係を利用する。
本稿では,2つの構造関係の類似性を測定するための構造関係グラフ表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T13:55:08Z) - Fidelity of Ensemble Aggregation for Saliency Map Explanations using
Bayesian Optimization Techniques [0.0]
我々は,異なる画素ベースのアグリゲーションスキームを新しい説明を生成するために提示し,比較する。
個々の説明の差異を集約プロセスに組み込む。
また,複数の正規化手法がアンサンブルアグリゲーションに与える影響を解析した。
論文 参考訳(メタデータ) (2022-07-04T16:34:12Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Semantic Change Detection with Asymmetric Siamese Networks [71.28665116793138]
2つの空中画像が与えられた場合、セマンティックチェンジ検出は、土地被覆のバリエーションを特定し、それらの変化タイプをピクセルワイド境界で識別することを目的としている。
この問題は、正確な都市計画や天然資源管理など、多くの地球ビジョンに関連するタスクにおいて不可欠である。
本研究では, 広く異なる構造を持つモジュールから得られた特徴対を用いて意味変化を同定し, 同定するための非対称システマネットワーク(ASN)を提案する。
論文 参考訳(メタデータ) (2020-10-12T13:26:30Z) - Deep Grouping Model for Unified Perceptual Parsing [36.73032339428497]
知覚に基づくグループ化プロセスは階層的および構成的イメージ表現を生成する。
本稿では,2種類の表現を密に結合したディープグルーピングモデル(DGM)を提案し,特徴交換のためのボトムアップとトップダウンプロセスを定義する。
このモデルは、他の文脈ベースセグメンテーションモデルと比較して計算オーバーヘッドが小さく、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-03-25T21:16:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。