論文の概要: Concept Boundary Vectors
- arxiv url: http://arxiv.org/abs/2412.15698v1
- Date: Fri, 20 Dec 2024 09:18:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:23:16.742348
- Title: Concept Boundary Vectors
- Title(参考訳): 概念境界ベクトル
- Authors: Thomas Walker,
- Abstract要約: 概念の潜在表現の境界から導かれる概念ベクトル構成として概念境界ベクトルを導入する。
実証実験により,概念境界ベクトルは概念の意味的意味を捉え,その有効性を概念アクティベーションベクトルと比較した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning models are trained with relatively simple objectives, such as next token prediction. However, on deployment, they appear to capture a more fundamental representation of their input data. It is of interest to understand the nature of these representations to help interpret the model's outputs and to identify ways to improve the salience of these representations. Concept vectors are constructions aimed at attributing concepts in the input data to directions, represented by vectors, in the model's latent space. In this work, we introduce concept boundary vectors as a concept vector construction derived from the boundary between the latent representations of concepts. Empirically we demonstrate that concept boundary vectors capture a concept's semantic meaning, and we compare their effectiveness against concept activation vectors.
- Abstract(参考訳): 機械学習モデルは、次のトークン予測のような比較的単純な目的で訓練される。
しかしながら、デプロイメントでは、入力データのより基本的な表現をキャプチャしているようだ。
これらの表現の性質を理解して、モデルの出力を解釈し、これらの表現の健全性を改善する方法を特定することは興味深いことである。
概念ベクトル (concept vector) は、モデル潜在空間において、入力データの概念をベクトルによって表現された方向へ帰属させることを目的とした構成である。
本研究では,概念の潜在表現の境界から導かれる概念ベクトルの構成として,概念境界ベクトルを導入する。
実証実験により,概念境界ベクトルは概念の意味的意味を捉え,その有効性を概念アクティベーションベクトルと比較した。
関連論文リスト
- Local Concept Embeddings for Analysis of Concept Distributions in DNN Feature Spaces [1.0923877073891446]
我々はディープニューラルネットワーク(DNN)のための新しい概念分析フレームワークを提案する。
完全なデータセット上で単一のグローバルな概念ベクトルを最適化する代わりに、個々のサンプルに対してローカルな概念埋め込み(LoCE)ベクトルを生成する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - Identifying Linear Relational Concepts in Large Language Models [16.917379272022064]
トランスフォーマー言語モデル(LM)は、隠れたアクティベーションの潜在空間における方向として概念を表現することが示されている。
本稿では,リレーショナル・リレーショナル・コンセプト (LRC) と呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-11-15T14:01:41Z) - Simple Mechanisms for Representing, Indexing and Manipulating Concepts [46.715152257557804]
我々は、概念の具体的な表現やシグネチャを生成するために、そのモーメント統計行列を見ることで概念を学ぶことができると論じる。
概念が交差しているとき、概念のシグネチャを使用して、関連する多くの相互交差した概念の共通テーマを見つけることができる。
論文 参考訳(メタデータ) (2023-10-18T17:54:29Z) - Distilling Semantic Concept Embeddings from Contrastively Fine-Tuned
Language Models [39.514266900301294]
言語モデルを使用する現在の戦略は、あるコーパスにおける言及の文脈化された表現を平均化することによって概念を表現するのが一般的である。
本稿では,2つの文が類似した性質を示すとき,対応する文脈化されたベクトルも類似するべきであるという見解に基づいて,2つの対照的な学習戦略を提案する。
1つの戦略は、文脈化された単語埋め込みの近傍構造から文で表される特性を推定する、完全に教師なしである。
第2の戦略は、ConceptNetからの遠方の監視信号に依存する。
論文 参考訳(メタデータ) (2023-05-16T20:17:02Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Towards a Deeper Understanding of Concept Bottleneck Models Through
End-to-End Explanation [2.9740255333669454]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) はまず、このベクトルを用いて最終分類を予測する前に、人間の定義した概念のベクトルに生の入力(s)をマッピングする。
そうすることで、モデルの出力の説明を生成し、概念に対応する入力特徴を可視化するときに、人間の解釈をサポートする。
論文 参考訳(メタデータ) (2023-02-07T16:43:43Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。