論文の概要: Emergence of Concepts in DNNs?
- arxiv url: http://arxiv.org/abs/2211.06137v1
- Date: Fri, 11 Nov 2022 11:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:50:31.401989
- Title: Emergence of Concepts in DNNs?
- Title(参考訳): DNNにおける概念の創出?
- Authors: Tim R\"az
- Abstract要約: まず,既存の手法がDNNで表現されていると思われる概念を実際にどのように識別するかを検討する。
第二に、予測精度と圧縮のトレードオフによって、概念空間がどのように形成されるかについて議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The present paper reviews and discusses work from computer science that
proposes to identify concepts in internal representations (hidden layers) of
DNNs. It is examined, first, how existing methods actually identify concepts
that are supposedly represented in DNNs. Second, it is discussed how conceptual
spaces -- sets of concepts in internal representations -- are shaped by a
tradeoff between predictive accuracy and compression. These issues are
critically examined by drawing on philosophy. While there is evidence that DNNs
able to represent non-trivial inferential relations between concepts, our
ability to identify concepts is severely limited.
- Abstract(参考訳): 本稿では,DNNの内部表現(隠蔽層)における概念の同定を提案するコンピュータサイエンスの研究をレビューし,議論する。
まず,既存の手法がDNNで表現されていると思われる概念を実際にどのように識別するかを検討する。
第二に、内部表現における概念の集合である概念空間が、予測精度と圧縮のトレードオフによってどのように形成されるかについて議論する。
これらの問題は哲学に基づいて批判的に検討される。
DNNが概念間の非自明な推論関係を表現できるという証拠はあるが、概念を識別する能力は極めて限られている。
関連論文リスト
- Implicit Concept Removal of Diffusion Models [92.55152501707995]
テキスト・ツー・イメージ(T2I)拡散モデルはしばしば、透かしや安全でない画像のような望ましくない概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Bayesian Neural Networks Avoid Encoding Complex and
Perturbation-Sensitive Concepts [22.873523599349326]
本稿では,平均場変動ベイズニューラルネットワーク(BNN)に着目し,そのようなBNNの表現能力について検討する。
十分に訓練されたニューラルネットワークの知識表現において、比較的小さなインタラクティブな概念セットが出現することが観察され、研究されている。
我々の研究は、標準的なディープニューラルネットワーク(DNN)と比較して、BNNが複雑な概念をエンコードする可能性は低いことを証明している。
論文 参考訳(メタデータ) (2023-02-25T14:56:35Z) - Does a Neural Network Really Encode Symbolic Concepts? [24.099892982101398]
本稿では,インタラクション概念の信頼性を4つの観点から検討する。
広範囲にわたる実証研究により、よく訓練されたDNNは、通常スパース、転送可能、差別的な概念を符号化することを示した。
論文 参考訳(メタデータ) (2023-02-25T13:58:37Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Concept Evolution in Deep Learning Training: A Unified Interpretation
Framework and Discoveries [45.88354622464973]
ConceptEvoはディープニューラルネットワーク(DNN)のための統合解釈フレームワーク
それは、訓練中に学んだ概念の発端と進化を明らかにします。
これは、ConvNeXtのような現代のDNNアーキテクチャと、VGGsやInceptionV3のような古典的なDNNの両方に適用できる。
論文 参考訳(メタデータ) (2022-03-30T17:12:18Z) - Kernelized Concept Erasure [108.65038124096907]
概念消去のための線形ミニマックスゲームのカーネル化を提案する。
特定の非線形敵が概念を予測するのを防ぐことができる。
しかし、保護は異なる非線形敵に移動しない。
論文 参考訳(メタデータ) (2022-01-28T15:45:13Z) - Towards Fully Interpretable Deep Neural Networks: Are We There Yet? [17.88784870849724]
Deep Neural Networks(DNN)は、人工知能(AI)システムに対するユーザの信頼を妨げるブラックボックスとして振る舞う。
本報告では,本質的な解釈可能性を持つDNNの開発手法について概説する。
論文 参考訳(メタデータ) (2021-06-24T16:37:34Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。