論文の概要: Mapping Knowledge Representations to Concepts: A Review and New
Perspectives
- arxiv url: http://arxiv.org/abs/2301.00189v1
- Date: Sat, 31 Dec 2022 12:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:08:39.728796
- Title: Mapping Knowledge Representations to Concepts: A Review and New
Perspectives
- Title(参考訳): 概念への知識表現のマッピング: 概観と新たな展望
- Authors: Lars Holmberg, Paul Davidsson, Per Linde
- Abstract要約: 本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of neural networks builds to a large extent on their ability to
create internal knowledge representations from real-world high-dimensional
data, such as images, sound, or text. Approaches to extract and present these
representations, in order to explain the neural network's decisions, is an
active and multifaceted research field. To gain a deeper understanding of a
central aspect of this field, we have performed a targeted review focusing on
research that aims to associate internal representations with human
understandable concepts. In doing this, we added a perspective on the existing
research by using primarily deductive nomological explanations as a proposed
taxonomy. We find this taxonomy and theories of causality, useful for
understanding what can be expected, and not expected, from neural network
explanations. The analysis additionally uncovers an ambiguity in the reviewed
literature related to the goal of model explainability; is it understanding the
ML model or, is it actionable explanations useful in the deployment domain?
- Abstract(参考訳): ニューラルネットワークの成功は、画像、音声、テキストなどの現実世界の高次元データから内部知識表現を作成する能力に大きく依存している。
これらの表現を抽出し提示するためのアプローチは、ニューラルネットワークの決定を説明するために、アクティブで多面的な研究分野である。
この分野の中心的な側面についてより深く理解するために、内部表現と人間の理解可能な概念を関連付けることを目的とした研究を対象とするレビューを行った。
そこで,提案する分類法として,帰納的ノモジカルな説明を主に用い,既存の研究の展望を付加した。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビュー文献の曖昧さも明らかにしている。mlモデルを理解するのか、それとも、デプロイメントドメインで有効な説明なのか?
関連論文リスト
- A Comprehensive Survey on Self-Interpretable Neural Networks [36.0575431131253]
自己解釈型ニューラルネットワークは、本質的にモデル構造を通して予測合理的性を明らかにする。
まず、自己解釈型ニューラルネットワークに関する既存の研究を収集、レビューし、その方法論を構造化した概要を提供する。
また、モデル説明の具体的、可視化された例を示し、その適用性について様々なシナリオで論じる。
論文 参考訳(メタデータ) (2025-01-26T18:50:16Z) - Neural-Symbolic Reasoning over Knowledge Graphs: A Survey from a Query Perspective [55.79507207292647]
知識グラフ推論は、データマイニング、人工知能、Web、社会科学など、さまざまな分野において重要である。
ニューラルAIの台頭は、深層学習の頑健さと象徴的推論の精度を融合させることで、大きな進歩を見せている。
大規模言語モデル(LLM)の出現により、知識グラフ推論の新しいフロンティアが開かれた。
論文 参考訳(メタデータ) (2024-11-30T18:54:08Z) - Explaining Deep Neural Networks by Leveraging Intrinsic Methods [0.9790236766474201]
この論文はeXplainable AIの分野に貢献し、ディープニューラルネットワークの解釈可能性の向上に重点を置いている。
中心となる貢献は、これらのネットワークをより解釈しやすくすることを目的とした新しい技術の導入である。
第2に、この研究は、訓練された深層ニューラルネットワーク内のニューロンに関する新しい研究を掘り下げ、その活性化値に関連する見過ごされた現象に光を当てた。
論文 参考訳(メタデータ) (2024-07-17T01:20:17Z) - Understanding CNN Hidden Neuron Activations Using Structured Background
Knowledge and Deductive Reasoning [3.6223658572137825]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-08-08T02:28:50Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - From Attribution Maps to Human-Understandable Explanations through
Concept Relevance Propagation [16.783836191022445]
eXplainable Artificial Intelligence(XAI)の分野は、今日の強力だが不透明なディープラーニングモデルに透明性をもたらすことを目指している。
局所的なXAI手法は属性マップの形で個々の予測を説明するが、グローバルな説明手法はモデルが一般的にエンコードするために学んだ概念を視覚化する。
論文 参考訳(メタデータ) (2022-06-07T12:05:58Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。