論文の概要: Intervening in Black Box: Concept Bottleneck Model for Enhancing Human Neural Network Mutual Understanding
- arxiv url: http://arxiv.org/abs/2506.22803v1
- Date: Sat, 28 Jun 2025 08:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.577103
- Title: Intervening in Black Box: Concept Bottleneck Model for Enhancing Human Neural Network Mutual Understanding
- Title(参考訳): ブラックボックスのインターベンション:人間のニューラルネットワークの相互理解を促進する概念ボトルネックモデル
- Authors: Nuoye Xiong, Anqi Dong, Ning Wang, Cong Hua, Guangming Zhu, Mei Lin, Peiyi Shen, Liang Zhang,
- Abstract要約: 人-神経ネットワーク相互理解(CBM-HNMU)の実現のための概念ボトルネックモデルを提案する。
CBM-HNMUはブラックボックス推論を近似し、概念的理解を伝えるための解釈可能なフレームワークである。
CBM-HNMU は Flower-102, CIFAR-10, CIFAR-100, FGVC-Aircraft, CUB-200 にまたがる様々な CNN およびトランスフォーマーベースモデルで評価される。
- 参考スコア(独自算出の注目度): 9.535672308783703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep learning have led to increasingly complex models with deeper layers and more parameters, reducing interpretability and making their decisions harder to understand. While many methods explain black-box reasoning, most lack effective interventions or only operate at sample-level without modifying the model itself. To address this, we propose the Concept Bottleneck Model for Enhancing Human-Neural Network Mutual Understanding (CBM-HNMU). CBM-HNMU leverages the Concept Bottleneck Model (CBM) as an interpretable framework to approximate black-box reasoning and communicate conceptual understanding. Detrimental concepts are automatically identified and refined (removed/replaced) based on global gradient contributions. The modified CBM then distills corrected knowledge back into the black-box model, enhancing both interpretability and accuracy. We evaluate CBM-HNMU on various CNN and transformer-based models across Flower-102, CIFAR-10, CIFAR-100, FGVC-Aircraft, and CUB-200, achieving a maximum accuracy improvement of 2.64% and a maximum increase in average accuracy across 1.03%. Source code is available at: https://github.com/XiGuaBo/CBM-HNMU.
- Abstract(参考訳): ディープラーニングの最近の進歩は、より深い層とより多くのパラメータを持つ、ますます複雑なモデルをもたらし、解釈可能性の低減と、それらの決定の理解を困難にしている。
多くのメソッドがブラックボックス推論を説明するが、ほとんどのメソッドは効果的な介入を欠いているか、モデル自体を変更することなくサンプルレベルでのみ動作する。
そこで本研究では,CBM-HNMU(Concept Bottleneck Model for Enhancing Human-Neural Network Mutual Understanding)を提案する。
CBM-HNMUは、ブラックボックス推論を近似し、概念理解を伝えるための解釈可能なフレームワークとしてConcept Bottleneck Model(CBM)を利用している。
デトリメンタルな概念は、グローバルな勾配の貢献に基づいて自動的に識別され、洗練され(取り外され/取り外される)ます。
修正されたCBMは、修正された知識をブラックボックスモデルに蒸留し、解釈可能性と精度の両方を高める。
CBM-HNMUをFlower-102, CIFAR-10, CIFAR-100, FGVC-Aircraft, CUB-200にまたがる各種CNNおよびトランスフォーマーモデル上で評価し, 最大精度が2.64%向上し, 平均精度が1.03%向上した。
ソースコードはhttps://github.com/XiGuaBo/CBM-HNMUで入手できる。
関連論文リスト
- DCBM: Data-Efficient Visual Concept Bottleneck Models [13.36057999450821]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念をベースとした予測によって、ニューラルネットワークの解釈可能性を高める。
我々は,解釈可能性を維持しつつ,概念生成時の大規模なサンプルサイズの必要性を低減できるデータ効率のCBMを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:04:58Z) - Gnothi Seauton: Empowering Faithful Self-Interpretability in Black-Box Transformers [21.698201509643624]
概念に基づくネットワークのような自己解釈型モデルは、決定を人間の理解可能な概念に結びつけることによって洞察を与える。
シャプリー値のようなポストホック法は理論的には堅牢であるが、計算コストが高く、資源集約的である。
ブラックボックスモデルに対する理論的に保証された自己解釈性を提供する。
論文 参考訳(メタデータ) (2024-10-29T07:35:33Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - VLG-CBM: Training Concept Bottleneck Models with Vision-Language Guidance [16.16577751549164]
Concept Bottleneck Models (CBM) は解釈可能な予測を提供する。
CBMは人間の理解可能な概念を符号化し、モデルの判断を説明する。
本稿では,VLG-CBM(Vision-Language-Guided Concept Bottleneck Model)を提案する。
論文 参考訳(メタデータ) (2024-07-18T19:44:44Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。