論文の概要: LogicCBMs: Logic-Enhanced Concept-Based Learning
- arxiv url: http://arxiv.org/abs/2512.07383v1
- Date: Mon, 08 Dec 2025 10:16:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.832028
- Title: LogicCBMs: Logic-Enhanced Concept-Based Learning
- Title(参考訳): LogicCBMs: ロジック強化コンセプトベースラーニング
- Authors: Deepika SN Vemuri, Gautham Bellamkonda, Aditya Pola, Vineeth N Balasubramanian,
- Abstract要約: Concept Bottleneck Models (CBM)は、ニューラルネットワークアーキテクチャ内のセマンティック抽象化の基盤を提供する。
本稿では,命題論理による概念ベース学習モデルの強化を提案する。
- 参考スコア(独自算出の注目度): 24.54025789634956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept Bottleneck Models (CBMs) provide a basis for semantic abstractions within a neural network architecture. Such models have primarily been seen through the lens of interpretability so far, wherein they offer transparency by inferring predictions as a linear combination of semantic concepts. However, a linear combination is inherently limiting. So we propose the enhancement of concept-based learning models through propositional logic. We introduce a logic module that is carefully designed to connect the learned concepts from CBMs through differentiable logic operations, such that our proposed LogicCBM can go beyond simple weighted combinations of concepts to leverage various logical operations to yield the final predictions, while maintaining end-to-end learnability. Composing concepts using a set of logic operators enables the model to capture inter-concept relations, while simultaneously improving the expressivity of the model in terms of logic operations. Our empirical studies on well-known benchmarks and synthetic datasets demonstrate that these models have better accuracy, perform effective interventions and are highly interpretable.
- Abstract(参考訳): Concept Bottleneck Models (CBM)は、ニューラルネットワークアーキテクチャ内のセマンティック抽象化の基盤を提供する。
このようなモデルは、これまでは解釈可能性のレンズを通して観察されてきたが、それらは意味論的概念の線形結合として予測を推論することで透明性を提供する。
しかし、線形結合は本質的に制限される。
そこで本研究では,命題論理による概念ベース学習モデルの強化を提案する。
提案するLogicCBMは,概念の単純な重み付けを超越して,様々な論理演算を活用して最終的な予測を導出し,エンドツーエンドの学習性を維持しながら,CBMから学習概念を相互に接続するように設計された論理モジュールを提案する。
一連の論理演算子を用いて概念を構成することにより、モデル間の関係をキャプチャし、同時に論理演算の観点からモデルの表現性を向上させることができる。
良く知られたベンチマークと合成データセットに関する実証研究は、これらのモデルがより正確で効果的な介入を行い、非常に解釈可能なことを示している。
関連論文リスト
- CLMN: Concept based Language Models via Neural Symbolic Reasoning [27.255064617527328]
概念言語モデルネットワーク(CLMN)は、パフォーマンスと解釈可能性の両方を維持するニューラルシンボリックフレームワークである。
CLMNは、連続的、人間可読な埋め込みとして概念を表現している。
Modelは、概念を意識した表現でオリジナルのテキスト機能を拡張し、解釈可能なロジックルールを自動的に誘導する。
論文 参考訳(メタデータ) (2025-10-11T06:58:44Z) - ConceptFlow: Hierarchical and Fine-grained Concept-Based Explanation for Convolutional Neural Networks [14.365259717799034]
畳み込みニューラルネットワーク(CNN)の概念に基づく解釈可能性とは、内部モデル表現と高レベルの意味論的概念の整合性である。
モデルの内部の「思考経路」をシミュレートする概念ベースの解釈可能性フレームワークであるConceptFlowを提案する。
論文 参考訳(メタデータ) (2025-09-16T03:02:46Z) - Interpretable Hierarchical Concept Reasoning through Attention-Guided Graph Learning [8.464865102100925]
本稿では,階層型概念記憶共振器(H-CMR)を提案する。
H-CMRは最先端のパフォーマンスと一致し、概念やモデルの介入を通じて強い人間との相互作用を可能にする。
論文 参考訳(メタデータ) (2025-06-26T08:56:55Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Entropy-based Logic Explanations of Neural Networks [24.43410365335306]
本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T15:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。