論文の概要: Hierarchical Symbolic Reasoning in Hyperbolic Space for Deep
Discriminative Models
- arxiv url: http://arxiv.org/abs/2207.01916v1
- Date: Tue, 5 Jul 2022 09:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 13:19:51.016577
- Title: Hierarchical Symbolic Reasoning in Hyperbolic Space for Deep
Discriminative Models
- Title(参考訳): 深部判別モデルのための双曲空間における階層的シンボリック推論
- Authors: Ainkaran Santhirasekaram, Avinash Kori, Andrea Rockall, Mathias
Winkler, Francesca Toni, Ben Glocker
- Abstract要約: 我々の焦点は、深層的な抽象レベルでの深い差別的モデルを説明することである。
ベクトル量子化法を用いて連続潜伏空間の離散化により、基礎となる知識を蒸留し、シンボルを形成する。
我々は木を横切り、象徴的規則とその対応する視覚的意味論の観点から説明を抽出する。
- 参考スコア(独自算出の注目度): 20.316592666407633
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explanations for \emph{black-box} models help us understand model decisions
as well as provide information on model biases and inconsistencies. Most of the
current explainability techniques provide a single level of explanation, often
in terms of feature importance scores or feature attention maps in input space.
Our focus is on explaining deep discriminative models at \emph{multiple levels
of abstraction}, from fine-grained to fully abstract explanations. We achieve
this by using the natural properties of \emph{hyperbolic geometry} to more
efficiently model a hierarchy of symbolic features and generate
\emph{hierarchical symbolic rules} as part of our explanations. Specifically,
for any given deep discriminative model, we distill the underpinning knowledge
by discretisation of the continuous latent space using vector quantisation to
form symbols, followed by a \emph{hyperbolic reasoning block} to induce an
\emph{abstraction tree}. We traverse the tree to extract explanations in terms
of symbolic rules and its corresponding visual semantics. We demonstrate the
effectiveness of our method on the MNIST and AFHQ high-resolution animal faces
dataset. Our framework is available at
\url{https://github.com/koriavinash1/SymbolicInterpretability}.
- Abstract(参考訳): emph{black-box}モデルの説明は、モデル決定を理解し、モデルのバイアスや矛盾に関する情報を提供するのに役立つ。
現在の説明可能性技術のほとんどは、入力空間における特徴重要度スコアや特徴注意マップの観点から、単一のレベルの説明を提供する。
我々の焦点は、きめ細かい説明から完全に抽象的な説明まで、 \emph{multiple Level of abstract} で深い識別モデルを説明することである。
我々は、より効率的に記号的特徴の階層をモデル化し、説明の一部として、emph{hierarchical symbolic rules}を生成するために、 \emph{hyperbolic geometry}の自然特性を用いてこれを達成する。
具体的には、任意の深層判別モデルに対して、ベクトル量子化を用いた連続的潜在空間の離散化により下地知識を蒸留して記号を作り、その後に \emph{hyperbolic reasoning block} を付けて \emph{abstraction tree} を誘導する。
我々は木を横切り、シンボル規則とその対応する視覚的意味論の観点から説明を抽出する。
本手法がMNISTおよびAFHQ高解像度動物顔データセットに与える影響を実証する。
我々のフレームワークは \url{https://github.com/koriavinash1/SymbolicInterpretability} で利用可能です。
関連論文リスト
- How to Handle Sketch-Abstraction in Sketch-Based Image Retrieval? [120.49126407479717]
スケッチの抽象化を様々なレベルで処理できるスケッチベース画像検索フレームワークを提案する。
粒度レベルの抽象理解のために、検索モデルはすべての抽象レベルを等しく扱ってはならないと規定する。
私たちのAcc.@qの損失は、評価がいかに厳格であるかという点で、スケッチが焦点を絞りたり壊したりできます。
論文 参考訳(メタデータ) (2024-03-11T23:08:29Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Counterfactual Explanations for Graph Classification Through the Lenses
of Density [19.53018353016675]
グラフ分類器のインスタンスレベルの反実例記述を生成するための一般密度に基づく反実例探索フレームワークを定義する。
この一般的なフレームワークでは,三角形の開きあるいは閉きによる反実数グラフの探索法と,最大傾きによって駆動される方法の2つの具体的インスタンス化を示す。
提案手法の有効性を7つの脳ネットワークデータセットで評価し, 広く利用されている指標に基づいて生成した偽事実を比較検討した。
論文 参考訳(メタデータ) (2023-07-27T13:28:18Z) - GLANCE: Global to Local Architecture-Neutral Concept-based Explanations [26.76139301708958]
本稿では,任意のCNN画像分類器が行う決定を説明するために,新しいツインサロゲート説明可能性フレームワークを提案する。
最初に分類器から潜伏した特徴を取り除き、次にこれらの特徴を観察/人間の定義した文脈の特徴に整列する。
これらのアライメントは意味論的に意味のある概念を形成し、知覚されたデータ生成プロセスを表す因果グラフを抽出する。
我々は、潜在空間における特徴間の相互作用の効果を可視化し、局所的な説明として特徴を重要視するジェネレータを提供する。
論文 参考訳(メタデータ) (2022-07-05T09:52:09Z) - ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations [26.500149465292246]
本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-06-23T08:37:32Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs [11.453325862543094]
GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
論文 参考訳(メタデータ) (2022-02-17T18:29:30Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。