論文の概要: Concept Embedding Models
- arxiv url: http://arxiv.org/abs/2209.09056v1
- Date: Mon, 19 Sep 2022 14:49:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:34:01.038802
- Title: Concept Embedding Models
- Title(参考訳): 概念埋め込みモデル
- Authors: Mateo Espinosa Zarlenga, Pietro Barbiero, Gabriele Ciravegna, Giuseppe
Marra, Francesco Giannini, Michelangelo Diligenti, Zohreh Shams, Frederic
Precioso, Stefano Melacci, Adrian Weller, Pietro Lio, Mateja Jamnik
- Abstract要約: 概念ボトルネックモデルは、人間のような概念の中間レベルに分類タスクを条件付けすることで、信頼性を促進する。
既存の概念ボトルネックモデルは、高いタスク精度、堅牢な概念に基づく説明、概念に対する効果的な介入の間の最適な妥協を見つけることができない。
本稿では,解釈可能な高次元概念表現を学習することで,現在の精度-vs-解釈可能性トレードオフを超える新しい概念ボトルネックモデルであるConcept Embedding Modelsを提案する。
- 参考スコア(独自算出の注目度): 27.968589555078328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying AI-powered systems requires trustworthy models supporting effective
human interactions, going beyond raw prediction accuracy. Concept bottleneck
models promote trustworthiness by conditioning classification tasks on an
intermediate level of human-like concepts. This enables human interventions
which can correct mispredicted concepts to improve the model's performance.
However, existing concept bottleneck models are unable to find optimal
compromises between high task accuracy, robust concept-based explanations, and
effective interventions on concepts -- particularly in real-world conditions
where complete and accurate concept supervisions are scarce. To address this,
we propose Concept Embedding Models, a novel family of concept bottleneck
models which goes beyond the current accuracy-vs-interpretability trade-off by
learning interpretable high-dimensional concept representations. Our
experiments demonstrate that Concept Embedding Models (1) attain better or
competitive task accuracy w.r.t. standard neural models without concepts, (2)
provide concept representations capturing meaningful semantics including and
beyond their ground truth labels, (3) support test-time concept interventions
whose effect in test accuracy surpasses that in standard concept bottleneck
models, and (4) scale to real-world conditions where complete concept
supervisions are scarce.
- Abstract(参考訳): AIを利用したシステムのデプロイには、正確な予測精度を超えて、効果的なヒューマンインタラクションをサポートする信頼できるモデルが必要である。
概念ボトルネックモデルは、人間のような概念の中間レベルで分類タスクを条件付けすることで信頼性を促進する。
これにより、誤予測された概念を補正してモデルの性能を改善することができる。
しかし、既存の概念ボトルネックモデルは、高いタスクの正確さ、堅牢な概念ベースの説明、そして概念に対する効果的な介入の間の最適な妥協を見出すことができない。
そこで本研究では,解釈可能な高次元概念表現を学習することで,現在の精度-vs-解釈可能性トレードオフを超える新しい概念ボトルネックモデルであるConcept Embedding Modelsを提案する。
本実験は,(1)標準ニューラルモデルにおいて,概念を含まない,より優れた,あるいは競争力のあるタスク精度を実現すること,(2)基礎的真理ラベルを含む意味的な意味を捉える概念表現を提供すること,(3)テスト精度が標準概念ボトルネックモデルよりも優れているテスト時間概念介入を支援すること,(4)完全な概念監督が不十分な実環境にスケールすること,などを実証する。
関連論文リスト
- Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Separable Multi-Concept Erasure from Diffusion Models [52.51972530398691]
大規模拡散モデルから安全でない概念を排除するために,分離可能なマルチコンセプト消去器(SepME)を提案する。
後者は最適化可能なモデルウェイトを分離し、各ウェイトインクリメントは特定の概念の消去に対応する。
広範囲にわたる実験は, 概念の排除, モデル性能の保存, 各種概念の消去・回復における柔軟性の確保に, アプローチの有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-03T11:10:57Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [44.1307928713715]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - Do Concept Bottleneck Models Learn as Intended? [29.842609351878416]
概念ボトルネックモデルは、解釈可能性、予測可能性、インターベンタビリティの目標を満たすのに苦労しています。
ポストホック解釈法を用いて,概念が入力空間において意味的に意味のあるものとは対応しないことを示す。
論文 参考訳(メタデータ) (2021-05-10T12:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。