論文の概要: Scale-Preserving Automatic Concept Extraction (SPACE)
- arxiv url: http://arxiv.org/abs/2308.06022v1
- Date: Fri, 11 Aug 2023 08:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:34:53.612592
- Title: Scale-Preserving Automatic Concept Extraction (SPACE)
- Title(参考訳): スケール保存自動概念抽出(SPACE)
- Authors: Andr\'es Felipe Posada-Moreno, Lukas Kreisk\"other, Tassilo Glander,
Sebastian Trimpe
- Abstract要約: 我々は,CNNの最先端の代替概念抽出手法として,SPACE(Scale-Preserving Automatic Concept extract)アルゴリズムを導入する。
提案手法は,人間の理解可能な概念の形で,モデルの意思決定過程を説明する。
- 参考スコア(独自算出の注目度): 5.270054840298395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNN) have become a common choice for
industrial quality control, as well as other critical applications in the
Industry 4.0. When these CNNs behave in ways unexpected to human users or
developers, severe consequences can arise, such as economic losses or an
increased risk to human life. Concept extraction techniques can be applied to
increase the reliability and transparency of CNNs through generating global
explanations for trained neural network models. The decisive features of image
datasets in quality control often depend on the feature's scale; for example,
the size of a hole or an edge. However, existing concept extraction methods do
not correctly represent scale, which leads to problems interpreting these
models as we show herein. To address this issue, we introduce the
Scale-Preserving Automatic Concept Extraction (SPACE) algorithm, as a
state-of-the-art alternative concept extraction technique for CNNs, focused on
industrial applications. SPACE is specifically designed to overcome the
aforementioned problems by avoiding scale changes throughout the concept
extraction process. SPACE proposes an approach based on square slices of input
images, which are selected and then tiled before being clustered into concepts.
Our method provides explanations of the models' decision-making process in the
form of human-understandable concepts. We evaluate SPACE on three image
classification datasets in the context of industrial quality control. Through
experimental results, we illustrate how SPACE outperforms other methods and
provides actionable insights on the decision mechanisms of CNNs. Finally, code
for the implementation of SPACE is provided.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、産業品質管理や業界 4.0 におけるその他の重要な応用において共通の選択肢となっている。
これらのCNNが人間のユーザや開発者にとって予期せぬ方法で振る舞うと、経済的損失や人命へのリスクの増加といった深刻な結果が発生する。
概念抽出手法は、トレーニングされたニューラルネットワークモデルのグローバル説明を生成することによって、cnnの信頼性と透明性を高めるために応用することができる。
品質管理における画像データセットの決定的な特徴は、しばしば機能の規模に依存する。
しかし、既存の概念抽出法はスケールを正しく表現していないため、ここで示すようにこれらのモデルの解釈に問題がある。
そこで本研究では,産業応用に焦点をあてたCNNのための最先端の代替概念抽出手法として,SPACE(Scale-Preserving Automatic Concept extract)アルゴリズムを導入する。
SPACEは、概念抽出プロセス全体のスケール変化を回避し、上記の問題を解決するように設計されている。
SPACEは、入力画像の2乗スライスに基づくアプローチを提案し、それは選択され、その後、概念にクラスタ化される前に取り込まれる。
提案手法は,人間の理解可能な概念の形でモデルの決定過程を説明する。
産業品質管理の観点から,SPACEを3つの画像分類データセット上で評価する。
実験の結果,空間が他の手法に勝ることを示すとともに,cnnの決定機構に関する実効的な洞察を与える。
最後に、SPACEの実装のためのコードを提供します。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with Prototypical Concept-based Explanations [13.60538902487872]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - Scalable Concept Extraction in Industry 4.0 [4.9122195223758895]
本稿では,概念抽出法(CE)の産業シナリオへの適用に取り組む。
畳み込みニューラルネットワーク(CNN)用に設計されたラッパー関数を利用して,概念の重要度を計算する新しい手法を提案する。
我々は,CEが産業的文脈におけるCNNの理解に応用できることを示し,ドメイン知識に関連する有用な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T09:57:04Z) - Evaluating the Stability of Semantic Concept Representations in CNNs for
Robust Explainability [0.0]
本稿では,コンピュータビジョンCNNにおける概念表現を扱う際の2つの安定性目標について述べる。
ガイドとなるユースケースは、オブジェクト検出CNNのためのポストホックな説明可能性フレームワークである。
本稿では,概念分離と一貫性の両面を考慮した新しい計量法を提案する。
論文 参考訳(メタデータ) (2023-04-28T14:14:00Z) - I saw, I conceived, I concluded: Progressive Concepts as Bottlenecks [2.9398911304923447]
概念ボトルネックモデル(CBM)は、予測中間概念の修正による推論時の説明可能性と介入を提供する。
これにより、CBMは高い意思決定に魅力的なものとなる。
胎児超音波検査の品質評価を,医療におけるCBM意思決定支援の現実的ユースケースとして捉えた。
論文 参考訳(メタデータ) (2022-11-19T09:31:19Z) - ECLAD: Extracting Concepts with Local Aggregated Descriptors [6.470466745237234]
そこで本研究では,CNNアクティベーションマップの画素ワイドアグリゲーションから得られた表現に基づいて,概念の自動抽出とローカライズを行う手法を提案する。
本稿では,主成分の画素単位のアノテーションを用いた合成データセットに基づく概念抽出手法の検証手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T14:25:23Z) - Modeling Temporal Concept Receptive Field Dynamically for Untrimmed
Video Analysis [105.06166692486674]
本稿では,概念に基づくイベント表現の時間的概念受容分野について考察する。
時間的動的畳み込み(TDC)を導入し、概念に基づくイベント分析をより柔軟にする。
異なる係数は、入力ビデオに応じて適切な時間的概念受容フィールドサイズを生成することができる。
論文 参考訳(メタデータ) (2021-11-23T04:59:48Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。