論文の概要: Learning Bottleneck Concepts in Image Classification
- arxiv url: http://arxiv.org/abs/2304.10131v1
- Date: Thu, 20 Apr 2023 07:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 14:08:48.339133
- Title: Learning Bottleneck Concepts in Image Classification
- Title(参考訳): 画像分類におけるボトルネック概念の学習
- Authors: Bowen Wang, Liangzhi Li, Yuta Nakashima, Hajime Nagahara
- Abstract要約: Bottleneck Concept Learner (BotCL) は、目標タスクに対するトレーニングを通じて学んだ概念の存在/存在のみをイメージとして表現する。
BotCLは自己スーパービジョンと調整された正規化器を使用して、学習された概念を人間に理解できるようにする。
- 参考スコア(独自算出の注目度): 24.624603699966094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpreting and explaining the behavior of deep neural networks is critical
for many tasks. Explainable AI provides a way to address this challenge, mostly
by providing per-pixel relevance to the decision. Yet, interpreting such
explanations may require expert knowledge. Some recent attempts toward
interpretability adopt a concept-based framework, giving a higher-level
relationship between some concepts and model decisions. This paper proposes
Bottleneck Concept Learner (BotCL), which represents an image solely by the
presence/absence of concepts learned through training over the target task
without explicit supervision over the concepts. It uses self-supervision and
tailored regularizers so that learned concepts can be human-understandable.
Using some image classification tasks as our testbed, we demonstrate BotCL's
potential to rebuild neural networks for better interpretability. Code is
available at https://github.com/wbw520/BotCL and a simple demo is available at
https://botcl.liangzhili.com/.
- Abstract(参考訳): ディープニューラルネットワークの振る舞いの解釈と説明は多くのタスクに不可欠である。
説明可能なAIは、この課題に対処する手段を提供する。
しかし、そのような説明を解釈するには専門家の知識が必要である。
解釈可能性に対する最近の試みでは、概念ベースのフレームワークを採用し、いくつかの概念とモデル決定の間の高レベルな関係を与えている。
本稿では,概念を明示的に管理することなく,対象課題を訓練することで学習した概念の存在/吸収のみをイメージとして表現するボトルネック概念学習者(botcl)を提案する。
自己スーパービジョンと調整された正規化器を使用して、学習された概念を人間に理解できるようにする。
画像分類タスクをテストベッドとして使用することにより,botclがニューラルネットワークを再構築する可能性を実証した。
コードはhttps://github.com/wbw520/BotCLで入手できる。
関連論文リスト
- Explainable Concept Generation through Vision-Language Preference Learning [7.736445799116692]
概念に基づく説明は、ポストホック後のディープニューラルネットワークを説明するための一般的な選択肢となっている。
視覚言語生成モデルを微調整する強化学習に基づく選好最適化アルゴリズムを考案する。
提案手法の有効性と信頼性に加えて,ニューラルネットワーク解析の診断ツールとしての有用性を示す。
論文 参考訳(メタデータ) (2024-08-24T02:26:42Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - Identifying Interpretable Subspaces in Image Representations [54.821222487956355]
コントラスト概念(FALCON)を用いて画像表現の特徴を説明する枠組みを提案する。
ターゲット機能として、FALCONは、大きなキャプションデータセットとCLIPのようなトレーニング済みの視覚言語モデルを使用して、高機能なトリミング画像をキャプションする。
キャプション内の各単語は、少数の共有された人間の理解可能な概念に導かれ、ランク付けされる。
論文 参考訳(メタデータ) (2023-07-20T00:02:24Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - TCNL: Transparent and Controllable Network Learning Via Embedding
Human-Guided Concepts [10.890006696574803]
本稿では,これらの課題を克服するために,トランスペアレントかつ制御可能なネットワーク学習(TCNL)を提案する。
透明性と解釈性を向上する目的に向けて、TNLでは、科学的人間の直観研究を通じて、特定の分類タスクに対するいくつかの概念を定義している。
また,概念抽出器によって抽出された特徴を人間の直感的に可視化する概念マッパーを構築した。
論文 参考訳(メタデータ) (2022-10-07T01:18:37Z) - SegDiscover: Visual Concept Discovery via Unsupervised Semantic
Segmentation [29.809900593362844]
SegDiscoverは、監視なしで複雑なシーンを持つデータセットから意味論的に意味のある視覚概念を発見する新しいフレームワークである。
提案手法は, 生画像から概念プリミティブを生成し, 自己教師付き事前学習エンコーダの潜在空間をクラスタリングし, ニューラルネットワークのスムーズ化により概念の洗練を図る。
論文 参考訳(メタデータ) (2022-04-22T20:44:42Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。