論文の概要: Controllable Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2601.00451v1
- Date: Thu, 01 Jan 2026 19:30:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.454381
- Title: Controllable Concept Bottleneck Models
- Title(参考訳): 制御可能な概念ボトルネックモデル
- Authors: Hongbin Lin, Chenyang Ren, Juangui Xu, Zhengyu Hu, Cheng-Long Wang, Yao Shu, Hui Xiong, Jingfeng Zhang, Di Wang, Lijie Hu,
- Abstract要約: 制御可能な概念ボトルネックモデル(CCBM)
CCBMは、概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートする。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
- 参考スコア(独自算出の注目度): 55.03639763625018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBMs) have garnered much attention for their ability to elucidate the prediction process through a human-understandable concept layer. However, most previous studies focused on static scenarios where the data and concepts are assumed to be fixed and clean. In real-world applications, deployed models require continuous maintenance: we often need to remove erroneous or sensitive data (unlearning), correct mislabeled concepts, or incorporate newly acquired samples (incremental learning) to adapt to evolving environments. Thus, deriving efficient editable CBMs without retraining from scratch remains a significant challenge, particularly in large-scale applications. To address these challenges, we propose Controllable Concept Bottleneck Models (CCBMs). Specifically, CCBMs support three granularities of model editing: concept-label-level, concept-level, and data-level, the latter of which encompasses both data removal and data addition. CCBMs enjoy mathematically rigorous closed-form approximations derived from influence functions that obviate the need for retraining. Experimental results demonstrate the efficiency and adaptability of our CCBMs, affirming their practical value in enabling dynamic and trustworthy CBMs.
- Abstract(参考訳): 概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解できない概念層を通じて予測プロセスを解明する能力に対して、多くの注目を集めている。
しかし、これまでのほとんどの研究は、データと概念が修正されクリーンであると仮定される静的シナリオに焦点を当てていた。
現実のアプリケーションでは、デプロイされたモデルは継続的メンテナンスを必要とします – 誤ったあるいは機密性の高いデータ(アンラーニング)を削除したり、誤ってラベル付けされた概念を正しいものにしたり、新たに取得したサンプル(インクリメンタルラーニング)を取り入れて、進化する環境に適応させる必要がしばしばあります。
したがって、特に大規模アプリケーションにおいて、スクラッチから再トレーニングすることなく効率的な編集可能なCBMを導出することは大きな課題である。
これらの課題に対処するために,制御可能な概念ボトルネックモデル (CCBM) を提案する。
具体的には、CCBMは概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートし、後者はデータ削除とデータ追加の両方を含んでいる。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
実験により, CCBMの効率性と適応性を実証し, 動的かつ信頼性の高いCBMの実現における実用的価値を確認した。
関連論文リスト
- Post-hoc Stochastic Concept Bottleneck Models [18.935442650741]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルな人間の理解可能な概念を通じて対象変数を予測する解釈可能なモデルである。
バックボーンモデルを再学習することなく,概念上の正規分布で事前学習した任意のCBMを増強する軽量な手法であるポストホック概念ボトルネックモデル(PSCBM)を導入する。
その結果,PSCBMは介入下でのCBMよりも優れた性能を示す一方で,スクラッチから類似モデルを再訓練するよりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2025-10-09T13:42:54Z) - From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - Interpretable Reward Modeling with Active Concept Bottlenecks [54.00085739303773]
本稿では,解釈可能な嗜好学習を可能にする報酬モデリングフレームワークであるConcept Bottleneck Reward Models (CB-RM)を紹介する。
不透明報酬関数に依存する標準的なRLHF法とは異なり、CB-RMは報酬予測を人間の解釈可能な概念に分解する。
我々は,最も情報性の高い概念ラベルを動的に取得する能動的学習戦略を定式化する。
論文 参考訳(メタデータ) (2025-07-07T06:26:04Z) - Editable Concept Bottleneck Models [36.38845338945026]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解できない概念層を通じて予測プロセスを解明する能力に対して、多くの注目を集めている。
多くのシナリオでは、プライバシの懸念などの理由から、トレーニングデータや新しい概念をトレーニングされたCBMから削除/挿入する必要があります。
我々は、スクラッチから再学習することなく効率的なCBMを導出するための編集可能な概念ボトルネックモデル(ECBMs)を提案する。
論文 参考訳(メタデータ) (2024-05-24T11:55:46Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Post-hoc Concept Bottleneck Models [11.358495577593441]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-31T00:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。