論文の概要: Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2007.04612v3
- Date: Tue, 29 Dec 2020 00:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:23:00.022113
- Title: Concept Bottleneck Models
- Title(参考訳): 概念ボトルネックモデル
- Authors: Pang Wei Koh, Thao Nguyen, Yew Siang Tang, Stephen Mussmann, Emma
Pierson, Been Kim, Percy Liang
- Abstract要約: 現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
- 参考スコア(独自算出の注目度): 79.91795150047804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We seek to learn models that we can interact with using high-level concepts:
if the model did not think there was a bone spur in the x-ray, would it still
predict severe arthritis? State-of-the-art models today do not typically
support the manipulation of concepts like "the existence of bone spurs", as
they are trained end-to-end to go directly from raw input (e.g., pixels) to
output (e.g., arthritis severity). We revisit the classic idea of first
predicting concepts that are provided at training time, and then using these
concepts to predict the label. By construction, we can intervene on these
concept bottleneck models by editing their predicted concept values and
propagating these changes to the final prediction. On x-ray grading and bird
identification, concept bottleneck models achieve competitive accuracy with
standard end-to-end models, while enabling interpretation in terms of
high-level clinical concepts ("bone spurs") or bird attributes ("wing color").
These models also allow for richer human-model interaction: accuracy improves
significantly if we can correct model mistakes on concepts at test time.
- Abstract(参考訳): モデルがx線に骨の突起があると思わなかったとしても、それでも重症関節炎を予測できるだろうか?
現在の最先端のモデルは、一般的には「骨のひねりの存在」のような概念の操作をサポートしないが、それらは、原入力(例えばピクセル)から出力(例えば関節炎症状)へ直接行くように訓練されている。
トレーニング時に提供される概念を最初に予測し、その概念を使ってラベルを予測するという古典的な考え方を再考する。
構築により、これらの概念ボトルネックモデルに、予測した概念値を編集し、これらの変更を最終予測に伝達することで介入することができる。
X線グレーディングと鳥の識別において、概念ボトルネックモデルは標準的なエンドツーエンドモデルと競合する精度を達成し、高いレベルの臨床概念(ボーン・スパーズ)や鳥の属性(翼色)の解釈を可能にする。
これらのモデルはまた、よりリッチな人間-モデルインタラクションを可能にする。 テスト時に概念のモデルミスを修正できれば、精度は大幅に向上する。
関連論文リスト
- Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Towards Concept-based Interpretability of Skin Lesion Diagnosis using
Vision-Language Models [0.0]
視覚言語モデルを用いて,多数の概念アノテーションを用いたサンプルへの依存を緩和できることを示す。
特に,概念に基づく記述をテキスト埋め込みとして用いて,CLIPを皮膚病変分類の下流タスクに適用するための埋め込み学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-24T08:31:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Prototype Learning for Explainable Brain Age Prediction [1.104960878651584]
回帰タスクに特化して設計された,説明可能なプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
提案手法は,モデル推論プロセスに関する知見を提供しながら,最先端の予測性能を実現した。
論文 参考訳(メタデータ) (2023-06-16T14:13:21Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - Interpretable Companions for Black-Box Models [13.39487972552112]
事前訓練されたブラックボックス分類器に対する解釈可能な共役モデルを提案する。
任意の入力に対して、ユーザーは高い精度でブラックボックスモデルから予測を受け付けるか、説明をしないか、または少し低い精度で解釈可能な予測を得るためにコンパニオンルールを使用することができる。
コンパニオンモデルは、データとブラックボックスモデルの予測から訓練され、透明性-精度曲線とモデルの複雑さの下で、客観的な結合領域を持つ。
論文 参考訳(メタデータ) (2020-02-10T01:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。