論文の概要: FI-CBL: A Probabilistic Method for Concept-Based Learning with Expert Rules
- arxiv url: http://arxiv.org/abs/2406.19897v1
- Date: Fri, 28 Jun 2024 13:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 16:50:10.503012
- Title: FI-CBL: A Probabilistic Method for Concept-Based Learning with Expert Rules
- Title(参考訳): FI-CBL:エキスパートルールを用いた概念ベース学習の確率論的手法
- Authors: Lev V. Utkin, Andrei V. Konstantinov, Stanislav R. Kirpichenko,
- Abstract要約: このメソッドの背後にある主なアイデアは、各概念に注釈付けされたイメージをパッチに分割し、オートエンコーダを使用してパッチを埋め込みに変換し、埋め込みをクラスタ化することである。
新しいイメージの概念を見つけるために,概念の事前確率と後続確率の計算による頻繁な推論を実装した。
数値実験により、FI-CBLは、トレーニングデータの数が小さい場合において、概念ボトルネックモデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 2.2120851074630177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A method for solving concept-based learning (CBL) problem is proposed. The main idea behind the method is to divide each concept-annotated image into patches, to transform the patches into embeddings by using an autoencoder, and to cluster the embeddings assuming that each cluster will mainly contain embeddings of patches with certain concepts. To find concepts of a new image, the method implements the frequentist inference by computing prior and posterior probabilities of concepts based on rates of patches from images with certain values of the concepts. Therefore, the proposed method is called the Frequentist Inference CBL (FI-CBL). FI-CBL allows us to incorporate the expert rules in the form of logic functions into the inference procedure. An idea behind the incorporation is to update prior and conditional probabilities of concepts to satisfy the rules. The method is transparent because it has an explicit sequence of probabilistic calculations and a clear frequency interpretation. Numerical experiments show that FI-CBL outperforms the concept bottleneck model in cases when the number of training data is small. The code of proposed algorithms is publicly available.
- Abstract(参考訳): 概念ベース学習(CBL)問題の解法を提案する。
この方法の背景にある主な考え方は、各概念に注釈を付けたイメージをパッチに分割し、オートエンコーダを使ってパッチを埋め込みに変換し、各クラスタが主に特定の概念でパッチの埋め込みを含むと仮定して、埋め込みをクラスタ化することである。
新しいイメージの概念を見つけるために、概念の特定の値を持つ画像からのパッチのレートに基づいて、概念の事前確率と後続確率を計算することによって、頻繁な推論を実装した。
そのため、提案手法はFrequentist Inference CBL(FI-CBL)と呼ばれる。
FI-CBLにより、専門家のルールを論理関数の形で推論手順に組み込むことができる。
法人化の背景にある考え方は、ルールを満たすために概念の事前および条件付き確率を更新することである。
この方法は、確率的計算の明確なシーケンスと明確な周波数解釈を持つため透明である。
数値実験により、FI-CBLは、トレーニングデータの数が小さい場合において、概念ボトルネックモデルより優れていることが示された。
提案されたアルゴリズムのコードは公開されている。
関連論文リスト
- Bayesian Concept Bottleneck Models with LLM Priors [9.368695619127084]
概念ボトルネックモデル (CBM) は、ホワイトボックスモデルとブラックボックスモデルの間の妥協として提案されており、精度を犠牲にすることなく解釈性を実現することを目的としている。
BC-LLM はベイズフレームワーク内の潜在的無限の概念を反復的に探索し、Large Language Models (LLM) が概念抽出のメカニズムと事前の両方として機能する。
論文 参考訳(メタデータ) (2024-10-21T01:00:33Z) - Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts [8.028021897214238]
OpenCBMはオープン語彙の概念を持つ最初のCBMである。
ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
論文 参考訳(メタデータ) (2024-08-05T06:42:00Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Incorporating Expert Rules into Neural Networks in the Framework of
Concept-Based Learning [2.9370710299422598]
論理規則とニューラルネットワークを組み合わせて概念の確率を予測する方法が提案されている。
提案する課題の解決とニューラルネットワークのトレーニングに,いくつかのアプローチを提案する。
提案されたアルゴリズムのコードは公開されている。
論文 参考訳(メタデータ) (2024-02-22T17:33:49Z) - Beyond Concept Bottleneck Models: How to Make Black Boxes Intervenable? [8.391254800873599]
本稿では,設計によって解釈できない事前学習型ニューラルネットワークに対して,概念に基づく介入を行う手法を提案する。
我々は、インターベンタビリティの概念を概念に基づく介入の有効性の尺度として定式化し、この定義を微調整ブラックボックスに活用する。
論文 参考訳(メタデータ) (2024-01-24T16:02:14Z) - Statistically Significant Concept-based Explanation of Image Classifiers
via Model Knockoffs [22.576922942465142]
概念に基づく説明は、非関連概念を予測タスクにとって重要であると誤解する偽陽性を引き起こす可能性がある。
深層学習モデルを用いて画像概念を学習し,Knockoffサンプルを用いて予測のための重要な概念を選択する手法を提案する。
論文 参考訳(メタデータ) (2023-05-27T05:40:05Z) - Risk Consistent Multi-Class Learning from Label Proportions [64.0125322353281]
本研究は,バッグにトレーニングインスタンスを提供するMCLLP設定によるマルチクラス学習に対処する。
既存のほとんどのMCLLPメソッドは、インスタンスの予測や擬似ラベルの割り当てにバッグワイズな制約を課している。
経験的リスク最小化フレームワークを用いたリスク一貫性手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T03:49:04Z) - Structural Learning of Probabilistic Sentential Decision Diagrams under
Partial Closed-World Assumption [127.439030701253]
確率感性決定図は構造化分解可能な回路のクラスである。
本稿では,回路の論理的基盤を暗黙的に提供する部分閉世界仮定に基づく新しいスキームを提案する。
予備実験では、提案手法がトレーニングデータに適切に適合し、基礎となる論理的基盤と整合性を維持した上で、テストデータによく適合することを示した。
論文 参考訳(メタデータ) (2021-07-26T12:01:56Z) - Covariance-Free Sparse Bayesian Learning [62.24008859844098]
共分散行列の明示的な反転を回避する新しいSBL推論アルゴリズムを導入する。
私たちの手法は、既存のベースラインよりも数千倍も高速です。
我々は,SBLが高次元信号回復問題に難なく対処できる新しいアルゴリズムについて紹介する。
論文 参考訳(メタデータ) (2021-05-21T16:20:07Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。