論文の概要: Towards Robust Metrics for Concept Representation Evaluation
- arxiv url: http://arxiv.org/abs/2301.10367v1
- Date: Wed, 25 Jan 2023 00:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:16:03.448253
- Title: Towards Robust Metrics for Concept Representation Evaluation
- Title(参考訳): 概念表現評価のためのロバスト計量に向けて
- Authors: Mateo Espinosa Zarlenga, Pietro Barbiero, Zohreh Shams, Dmitry
Kazhdan, Umang Bhatt, Adrian Weller, Mateja Jamnik
- Abstract要約: 概念学習モデルは、その表現に不純物を符号化する傾向があることが示されている。
両手法における概念表現の純度を評価するための新しい指標を提案する。
- 参考スコア(独自算出の注目度): 25.549961337814523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work on interpretability has focused on concept-based explanations,
where deep learning models are explained in terms of high-level units of
information, referred to as concepts. Concept learning models, however, have
been shown to be prone to encoding impurities in their representations, failing
to fully capture meaningful features of their inputs. While concept learning
lacks metrics to measure such phenomena, the field of disentanglement learning
has explored the related notion of underlying factors of variation in the data,
with plenty of metrics to measure the purity of such factors. In this paper, we
show that such metrics are not appropriate for concept learning and propose
novel metrics for evaluating the purity of concept representations in both
approaches. We show the advantage of these metrics over existing ones and
demonstrate their utility in evaluating the robustness of concept
representations and interventions performed on them. In addition, we show their
utility for benchmarking state-of-the-art methods from both families and find
that, contrary to common assumptions, supervision alone may not be sufficient
for pure concept representations.
- Abstract(参考訳): 解釈可能性に関する最近の研究は概念に基づく説明に焦点を当てており、ディープラーニングモデルは概念と呼ばれる高レベルな情報の単位で説明されている。
しかし、概念学習モデルは、その表現に不純物を符号化する傾向があることが示され、入力の有意義な特徴を完全に捉えられなかった。
概念学習は、そのような現象を測定するためのメトリクスを欠いているが、乱れ学習の分野は、その要因の純度を測定するための多くの指標と共に、データの変化の根本的な要因に関する関連する概念を探求している。
本稿では,概念学習にはこのような指標が適さないことを示すとともに,概念表現の純度を評価するための新しい指標を提案する。
既存の指標よりもこれらの指標の利点を示し、概念表現と介入の堅牢性を評価する上での有用性を示す。
さらに,両家庭から最先端の手法をベンチマークするための実用性を示すとともに,一般的な仮定とは違い,純粋な概念表現には監督だけでは不十分であることを示す。
関連論文リスト
- ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Do Concept Bottleneck Models Obey Locality? [16.141263815153206]
概念に基づく学習は、人間の理解可能な概念を通して予測を説明することによって、深層学習モデルの解釈可能性を改善する。
最近の研究は、この仮定がConcept Bottleneck Models(CBM)で成り立たないことを強く示唆している。
CBMは、そのような概念が空間的にも意味的にも局所化されているとき、概念間の条件独立の度合いを捉えている。
その結果,CBMが学習した概念表現の質に疑問を呈し,概念に基づく説明は地域外の変化に対して脆弱である可能性が強く示唆された。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Estimation of Concept Explanations Should be Uncertainty Aware [45.141438981504564]
本研究では,人間の理解可能な概念を用いてモデルを解釈することを目的として,概念説明と呼ばれる特定のグローバルな説明について研究する。
マルチモーダル学習の最近の進歩は、概念的説明への関心を再燃させ、評価のためのラベル効率の良い提案につながった。
本稿では,概念記述の信頼性を向上する不確実性を考慮したベイズ推定手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T11:17:27Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - A Unified Concept-Based System for Local, Global, and Misclassification
Explanations [13.321794212377949]
地域概念とグローバル概念の両方を教師なしで学習するための統合された概念ベースシステムを提案する。
我々の主な目的は、代理説明ネットワークを訓練することで、各データカテゴリの根底にある本質的な概念を明らかにすることである。
我々のアプローチは、正確な予測と誤予測の両方を説明するのに役立ちます。
論文 参考訳(メタデータ) (2023-06-06T09:28:37Z) - Towards explainable evaluation of language models on the semantic
similarity of visual concepts [0.0]
本稿では,視覚語彙の意味的類似性に焦点をあて,ハイパフォーマンスな事前学習言語モデルの振る舞いを考察する。
まず、検索したインスタンスの概念的品質を理解するために必要となる、説明可能な評価指標の必要性に対処する。
第二に、健全なクエリセマンティクスに対する敵対的な介入は、不透明なメトリクスの脆弱性を露呈し、学習された言語表現におけるパターンを強調します。
論文 参考訳(メタデータ) (2022-09-08T11:40:57Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Translational Concept Embedding for Generalized Compositional Zero-shot
Learning [73.60639796305415]
一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-20T21:27:51Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。