論文の概要: TCNL: Transparent and Controllable Network Learning Via Embedding
Human-Guided Concepts
- arxiv url: http://arxiv.org/abs/2210.03274v1
- Date: Fri, 7 Oct 2022 01:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:05:45.454838
- Title: TCNL: Transparent and Controllable Network Learning Via Embedding
Human-Guided Concepts
- Title(参考訳): TCNL: ヒューマンガイドの概念を組み込んだ透明で制御可能なネットワーク学習
- Authors: Zhihao Wang, Chuang Zhu
- Abstract要約: 本稿では,これらの課題を克服するために,トランスペアレントかつ制御可能なネットワーク学習(TCNL)を提案する。
透明性と解釈性を向上する目的に向けて、TNLでは、科学的人間の直観研究を通じて、特定の分類タスクに対するいくつかの概念を定義している。
また,概念抽出器によって抽出された特徴を人間の直感的に可視化する概念マッパーを構築した。
- 参考スコア(独自算出の注目度): 10.890006696574803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining deep learning models is of vital importance for understanding
artificial intelligence systems, improving safety, and evaluating fairness. To
better understand and control the CNN model, many methods for
transparency-interpretability have been proposed. However, most of these works
are less intuitive for human understanding and have insufficient human control
over the CNN model. We propose a novel method, Transparent and Controllable
Network Learning (TCNL), to overcome such challenges. Towards the goal of
improving transparency-interpretability, in TCNL, we define some concepts for
specific classification tasks through scientific human-intuition study and
incorporate concept information into the CNN model. In TCNL, the shallow
feature extractor gets preliminary features first. Then several concept feature
extractors are built right after the shallow feature extractor to learn
high-dimensional concept representations. The concept feature extractor is
encouraged to encode information related to the predefined concepts. We also
build the concept mapper to visualize features extracted by the concept
extractor in a human-intuitive way. TCNL provides a generalizable approach to
transparency-interpretability. Researchers can define concepts corresponding to
certain classification tasks and encourage the model to encode specific concept
information, which to a certain extent improves transparency-interpretability
and the controllability of the CNN model. The datasets (with concept sets) for
our experiments will also be released (https://github.com/bupt-ai-cz/TCNL).
- Abstract(参考訳): ディープラーニングモデルを説明することは、人工知能システムを理解し、安全性を改善し、公平性を評価する上で非常に重要である。
CNNモデルをよりよく理解し、制御するために、透明性-解釈可能性のための多くの方法が提案されている。
しかし、これらの作品の多くは人間の理解のために直感的ではなく、cnnモデルに対する人間の制御が不十分である。
本稿では,これらの課題を克服するために,トランスペアレントかつ制御可能なネットワーク学習(TCNL)を提案する。
透明性と解釈性を向上する目的に向けて,TNLでは,科学的直観研究を通じて特定の分類課題に対する概念を定義し,概念情報をCNNモデルに組み込む。
TCNLでは、浅い特徴抽出器が最初に予備機能を取得する。
次に、浅い特徴抽出器の直後にいくつかの概念特徴抽出器を構築し、高次元の概念表現を学ぶ。
概念特徴抽出器は、予め定義された概念に関連する情報をエンコードするよう奨励される。
また,概念抽出器によって抽出された特徴を人間直観的に可視化する概念マッパーを構築した。
TCNLは透明性-解釈可能性に対する一般化可能なアプローチを提供する。
研究者は特定の分類タスクに対応する概念を定義し、特定の概念情報をエンコードするようモデルに促すことができる。
実験用のデータセット(コンセプトセット付き)もリリースされます(https://github.com/bupt-ai-cz/TCNL)。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Learning Semantically Meaningful Features for Interpretable
Classifications [17.88784870849724]
SemCNNは視覚特徴と単語句の関連を学習する。
複数のベンチマークデータセットの実験結果は、SemCNNが明確な意味を持つ特徴を学習できることを実証している。
論文 参考訳(メタデータ) (2021-01-11T14:35:16Z) - Learning Interpretable Concept-Based Models with Human Feedback [36.65337734891338]
本研究では,ユーザが概念特徴をラベル付けすることに依存する高次元データにおいて,透明な概念定義の集合を学習するためのアプローチを提案する。
提案手法は,概念の意味を直感的に理解する概念と一致し,透過的な機械学習モデルにより下流ラベルの予測を容易にする概念を生成する。
論文 参考訳(メタデータ) (2020-12-04T23:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。