論文の概要: Semantics of the Black-Box: Can knowledge graphs help make deep learning
systems more interpretable and explainable?
- arxiv url: http://arxiv.org/abs/2010.08660v4
- Date: Fri, 11 Dec 2020 23:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:13:43.551782
- Title: Semantics of the Black-Box: Can knowledge graphs help make deep learning
systems more interpretable and explainable?
- Title(参考訳): ブラックボックスのセマンティクス:知識グラフはディープラーニングシステムをより解釈しやすく説明可能にするか?
- Authors: Manas Gaur, Keyur Faldu, Amit Sheth
- Abstract要約: 近年のディープラーニング(DL)の革新は、個人や社会に大きな影響を与える可能性がある。
DLモデルのブラックボックスの性質と大量のデータへの過度依存は、システムの解釈可能性と説明可能性に課題をもたらす。
本稿では,知識グラフとして提供される知識が,知識注入学習を用いたDL手法にどのように組み込まれているかを示す。
- 参考スコア(独自算出の注目度): 4.2111286819721485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent series of innovations in deep learning (DL) have shown enormous
potential to impact individuals and society, both positively and negatively.
The DL models utilizing massive computing power and enormous datasets have
significantly outperformed prior historical benchmarks on increasingly
difficult, well-defined research tasks across technology domains such as
computer vision, natural language processing, signal processing, and
human-computer interactions. However, the Black-Box nature of DL models and
their over-reliance on massive amounts of data condensed into labels and dense
representations poses challenges for interpretability and explainability of the
system. Furthermore, DLs have not yet been proven in their ability to
effectively utilize relevant domain knowledge and experience critical to human
understanding. This aspect is missing in early data-focused approaches and
necessitated knowledge-infused learning and other strategies to incorporate
computational knowledge. This article demonstrates how knowledge, provided as a
knowledge graph, is incorporated into DL methods using knowledge-infused
learning, which is one of the strategies. We then discuss how this makes a
fundamental difference in the interpretability and explainability of current
approaches, and illustrate it with examples from natural language processing
for healthcare and education applications.
- Abstract(参考訳): 近年のディープラーニング(DL)の革新は、肯定的にも否定的にも、個人や社会に影響を与える大きな可能性を示している。
膨大な計算能力と膨大なデータセットを利用するdlモデルは、コンピュータビジョン、自然言語処理、信号処理、人間とコンピュータの相互作用など、テクノロジ分野にわたる、ますます困難で明確に定義された研究タスクの過去のベンチマークを大きく上回っている。
しかし、DLモデルのブラックボックスの性質とラベルや密度表現に凝縮された大量のデータへの過度な依存は、システムの解釈可能性と説明可能性に課題をもたらす。
さらに、DLは、関連するドメイン知識と人間の理解に不可欠な経験を効果的に活用する能力について、まだ証明されていない。
この側面は、初期のデータ中心のアプローチや、知識に干渉した学習や他の計算的知識を組み込む戦略に欠けている。
本稿では,知識グラフとして提供される知識を,知識注入学習を用いたDLメソッドに組み込む方法を紹介する。
次に,これが現在のアプローチの解釈可能性と説明可能性に根本的な違いをもたらし,医療・教育アプリケーションのための自然言語処理の例で説明する。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Informed Meta-Learning [55.2480439325792]
メタラーニングとインシデントMLは、事前知識をMLパイプラインに組み込むための2つのアプローチとして際立っている。
我々は,非構造化知識表現からの事前の取り込みを容易にする,情報メタラーニングというハイブリッドパラダイムを定式化する。
データ効率、観測ノイズに対する堅牢性、タスク分散シフトを改善する上で、情報メタラーニングの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-02-25T15:08:37Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Algebraic Learning: Towards Interpretable Information Modeling [0.0]
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
論文 参考訳(メタデータ) (2022-03-13T15:53:39Z) - Knowledge Modelling and Active Learning in Manufacturing [0.6299766708197884]
オントロジとナレッジグラフは、幅広い概念、問題、設定をモデル化し、関連付ける手段を提供する。
どちらも、推論を導出し、行方不明の知識を識別することで、新しい知識を生成するために使用することができる。
アクティブラーニングは、ユーザのフィードバックを取得し、摩擦を減らし、知識獲得を最大化する最も有益なデータインスタンスを特定するために使用できる。
論文 参考訳(メタデータ) (2021-07-05T22:07:21Z) - EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep
learning representations with expert knowledge graphs: the MonuMAI cultural
heritage use case [13.833923272291853]
本稿では,記号表現と深部表現の両方を学習するためのeXplainable Neural-symbolic Learning (X-NeSyL)手法を提案する。
X-NeSyL手法は、それぞれ推論時と訓練時の2つの説明概念の具体的使用を含む。
MonuMAIデータセットを用いたX-NeSyL手法を記念碑的ファサード画像分類に導入し,説明性と性能の向上を実証した。
論文 参考訳(メタデータ) (2021-04-24T09:06:08Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。