論文の概要: Language in a Bottle: Language Model Guided Concept Bottlenecks for
Interpretable Image Classification
- arxiv url: http://arxiv.org/abs/2211.11158v1
- Date: Mon, 21 Nov 2022 03:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:42:45.541613
- Title: Language in a Bottle: Language Model Guided Concept Bottlenecks for
Interpretable Image Classification
- Title(参考訳): ボトル内の言語:解釈可能な画像分類のための言語モデルガイド型概念ボトルネック
- Authors: Yue Yang, Artemis Panagopoulou, Shenghao Zhou, Daniel Jin, Chris
Callison-Burch, Mark Yatskar
- Abstract要約: 概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、モデル決定を人間可読な概念に分解する。
CBMは手動で指定した概念を必要とし、しばしばブラックボックスよりも性能が低い。
ブラックボックスモデルに類似した精度のマニュアル仕様を使わずに高性能なCBMを構築する方法について述べる。
- 参考スコア(独自算出の注目度): 28.63880112615905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBM) are inherently interpretable models that
factor model decisions into human-readable concepts. They allow people to
easily understand why a model is failing, a critical feature for high-stakes
applications. CBMs require manually specified concepts and often under-perform
their black box counterparts, preventing their broad adoption. We address these
shortcomings and are first to show how to construct high-performance CBMs
without manual specification of similar accuracy to black box models. Our
approach, Language Guided Bottlenecks (LaBo), leverages a language model,
GPT-3, to define a large space of possible bottlenecks. Given a problem domain,
LaBo uses GPT-3 to produce factual sentences about categories to form candidate
concepts. LaBo efficiently searches possible bottlenecks through a novel
submodular utility that promotes the selection of discriminative and diverse
information. Ultimately, GPT-3's sentential concepts can be aligned to images
using CLIP, to form a bottleneck layer. Experiments demonstrate that LaBo is a
highly effective prior for concepts important to visual recognition. In the
evaluation with 11 diverse datasets, LaBo bottlenecks excel at few-shot
classification: they are 11.7% more accurate than black box linear probes at 1
shot and comparable with more data. Overall, LaBo demonstrates that inherently
interpretable models can be widely applied at similar, or better, performance
than black box approaches.
- Abstract(参考訳): 概念ボトルネックモデル(cbm)は本質的に解釈可能なモデルであり、モデル決定を人間の可読概念に分解する。
これにより、モデルが失敗した理由を簡単に理解できるようになる。
CBMは手動で指定した概念を必要とし、しばしばブラックボックスの能力に劣る。
まず,ブラックボックスモデルと同様の精度を手作業で指定することなく,高性能なcbmを構築する方法を示す。
当社のアプローチであるlanguage guided bottlenecks(labo)は、言語モデルgpt-3を活用して、可能なボトルネックの大きな空間を定義します。
問題領域が与えられた場合、LaBoはGPT-3を使用してカテゴリに関する事実文を生成し、候補概念を形成する。
laboは、識別的かつ多様な情報の選択を促進する新しいサブモジュラーユーティリティを通じて、可能なボトルネックを効率的に検索する。
最終的に、GPT-3の知覚概念は、CLIPを使用して画像に整列してボトルネック層を形成することができる。
実験により、LaBoは視覚認識にとって重要な概念の非常に効果的な事前であることが示された。
11の多様なデータセットによる評価では、LaBoボトルネックは数ショットの分類で優れており、1ショットでのブラックボックス線形プローブよりも11.7%正確で、より多くのデータに匹敵する。
全体として、LaBoはブラックボックスアプローチよりも、本質的に解釈可能なモデルが、同じような、あるいはより良いパフォーマンスで広く適用可能であることを示した。
関連論文リスト
- Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts [8.028021897214238]
OpenCBMはオープン語彙の概念を持つ最初のCBMである。
ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
論文 参考訳(メタデータ) (2024-08-05T06:42:00Z) - Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models [65.48185395952788]
Buffer of Thoughts (BoT) は、斬新で多目的な思考補足的推論手法である。
そこで我々はメタバッファーを提案し,一連の情報的高レベルの思考を記憶する。
各問題に対して、関連する思考タイミングを検索し、特定の推論構造で適応的にインスタンス化する。
論文 参考訳(メタデータ) (2024-06-06T17:22:08Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Beyond Concept Bottleneck Models: How to Make Black Boxes Intervenable? [8.391254800873599]
本稿では,設計によって解釈できない事前学習型ニューラルネットワークに対して,概念に基づく介入を行う手法を提案する。
我々は、インターベンタビリティの概念を概念に基づく介入の有効性の尺度として定式化し、この定義を微調整ブラックボックスに活用する。
論文 参考訳(メタデータ) (2024-01-24T16:02:14Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Can Large Language Models Follow Concept Annotation Guidelines? A Case Study on Scientific and Financial Domains [19.814974042343028]
文ラベリングタスクのコンテキスト内概念ガイドラインに従うための命令調整型言語モデルの能力について検討する。
以上の結果から,概念定義はタスク性能に一貫して寄与するが,実際のコンテキスト下での作業能力に制限があるのは大規模モデルのみであることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T05:11:26Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Specializing Smaller Language Models towards Multi-Step Reasoning [56.78474185485288]
GPT-3.5 (ge$ 175B) から T5 変種 (le$ 11B) までを蒸留できることを示す。
対象タスクに対するモデルの能力を専門化するモデル特殊化を提案する。
論文 参考訳(メタデータ) (2023-01-30T08:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。