論文の概要: CLIP-Dissect: Automatic Description of Neuron Representations in Deep
Vision Networks
- arxiv url: http://arxiv.org/abs/2204.10965v1
- Date: Sat, 23 Apr 2022 00:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 10:23:12.987259
- Title: CLIP-Dissect: Automatic Description of Neuron Representations in Deep
Vision Networks
- Title(参考訳): CLIP-Dissect:ディープビジョンネットワークにおけるニューロン表現の自動記述
- Authors: Tuomas Oikarinen, Tsui-Wei Weng
- Abstract要約: 視覚ネットワーク内の個々の隠れニューロンの機能を自動的に記述する新しい手法であるCLIP-Dissectを提案する。
ここでは,CLIP-Dissectが,基底構造が利用可能なニューロンに対して,既存の方法よりも正確な記述を提供することを示す。
我々の手法は非常に柔軟であり、モデル非依存であり、新しい概念を容易に扱え、将来より優れたマルチモーダルモデルを活用するために拡張できる。
- 参考スコア(独自算出の注目度): 7.8858544147141085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose CLIP-Dissect, a new technique to automatically
describe the function of individual hidden neurons inside vision networks.
CLIP-Dissect leverages recent advances in multimodal vision/language models to
label internal neurons with open-ended concepts without the need for any
labeled data or human examples, which are required for existing tools to
succeed. We show that CLIP-Dissect provides more accurate descriptions than
existing methods for neurons where the ground-truth is available as well as
qualitatively good descriptions for hidden layer neurons. In addition, our
method is very flexible: it is model agnostic, can easily handle new concepts
and can be extended to take advantage of better multimodal models in the
future. Finally CLIP-Dissect is computationally efficient and labels all
neurons of a layer in a large vision model in tens of minutes.
- Abstract(参考訳): 本稿では,視覚ネットワーク内の個々の隠れニューロンの機能を自動的に記述する新しい手法であるCLIP-Dissectを提案する。
CLIP-Dissectは、マルチモーダルビジョン/言語モデルの最近の進歩を活用して、既存のツールが成功するために必要なラベル付きデータや人間の例を必要とせずに、内部ニューロンをオープンな概念でラベル付けする。
その結果, クリップディステクトは, 隠れ層ニューロンに対する質的良質な記述だけでなく, 既存の神経細胞の方法よりも正確な説明が得られていることがわかった。
さらに,本手法は非常に柔軟であり,モデル非依存であり,新しい概念を容易に扱えるとともに,将来より優れたマルチモーダルモデルを活用するために拡張することができる。
最後に、CLIP-Dissectは計算効率が良く、数十分で大きな視覚モデル内の全てのニューロンをラベル付けする。
関連論文リスト
- Neuron-based Personality Trait Induction in Large Language Models [115.08894603023712]
大規模言語モデル (LLM) は、様々な性格特性をシミュレートする能力が増している。
LLMにおけるパーソナリティ特性誘導のためのニューロンに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-16T07:47:45Z) - PURE: Turning Polysemantic Neurons Into Pure Features by Identifying Relevant Circuits [12.17671779091913]
本稿では、複数の単意味「仮想」ニューロンにポリセマンティックニューロンを分解することで、あらゆるディープニューラルネットワークのポリセマンティック性を遠ざける方法を提案する。
私たちは、ImageNetでトレーニングされたResNetモデルの多意味ユニットを、どのように見つけ、切り離すことができるかを示します。
論文 参考訳(メタデータ) (2024-04-09T16:54:19Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - DISCOVER: Making Vision Networks Interpretable via Competition and
Dissection [11.028520416752325]
この研究は、ポストホック解釈可能性、特にネットワーク分割に寄与する。
私たちのゴールは、視覚タスクで訓練されたネットワークにおいて、各ニューロンの個々の機能を容易に発見できるフレームワークを提供することです。
論文 参考訳(メタデータ) (2023-10-07T21:57:23Z) - NeuroCLIP: Neuromorphic Data Understanding by CLIP and SNN [16.104055742259128]
我々は2D CLIPと2つの特別設計モジュールからなるNeuroCLIPを開発した。
N-MNIST、CIFAR10-DVS、ES-ImageNetなどのニューロモルフィックデータセットに関する様々な実験は、NeuroCLIPの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-21T07:46:27Z) - Noisy Heuristics NAS: A Network Morphism based Neural Architecture
Search using Heuristics [11.726528038065764]
本稿では,Nuisy Heuristics NASというネットワークモルフィズムに基づくNASを提案する。
新しいニューロンをランダムに追加し、最も適したニューロンのみを選択するために、いくつかのニューロンをプルーニングします。
本手法は,おもちゃのデータセットとMNIST, CIFAR-10, CIFAR-100などの実世界のデータセットの両方を一般化する。
論文 参考訳(メタデータ) (2022-07-10T13:58:21Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Natural Language Descriptions of Deep Visual Features [50.270035018478666]
オープンエンド,コンポジション,自然言語による記述で自動的にニューロンをラベル付けする手法を提案する。
我々はMILANを用いて、視覚モデルにおける属性、カテゴリ、関係情報を選択的に選択したニューロンの分布と重要性を特徴付ける。
また、これらの特徴を曖昧にすることを目的としたデータセットでトレーニングされたモデルにおいて、人種や性別といった保護されたカテゴリに敏感な、監査用のMILANも使用しています。
論文 参考訳(メタデータ) (2022-01-26T18:48:02Z) - Explainability Tools Enabling Deep Learning in Future In-Situ Real-Time
Planetary Explorations [58.720142291102135]
ディープラーニング(DL)は、効果的な機械学習とコンピュータビジョン技術であることが証明されている。
ディープニューラルネットワーク(DNN)アーキテクチャのほとんどは複雑すぎて'ブラックボックス'と見なされている。
本稿では,各ニューロンの出力クラスへの属性を記述するために,積分勾配を用いた。
DNNのブラックボックスを開くための説明可能性ツールセット(ET)を提供するので、分類へのニューロンの個々の貢献をランク付けし視覚化することができる。
論文 参考訳(メタデータ) (2022-01-15T07:10:00Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。