論文の概要: The two-way knowledge interaction interface between humans and neural
networks
- arxiv url: http://arxiv.org/abs/2401.05461v1
- Date: Wed, 10 Jan 2024 10:47:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 02:34:34.491954
- Title: The two-way knowledge interaction interface between humans and neural
networks
- Title(参考訳): 人間とニューラルネットワークの双方向知識相互作用インタフェース
- Authors: Zhanliang He, Nuoye Xiong, Hongsheng Li, Peiyi Shen, Guangming Zhu,
Liang Zhang
- Abstract要約: ニューラルネットワーク(NN)は様々な分野に広く適用されており、一般的に人間よりも優れています。
NNはクラス固有の構造概念グラフ(C-SCG)に基づく人間への直感的推論の説明を提供する
人間の関与と事前知識はNNの性能向上に直接的かつ効果的に寄与することができる。
- 参考スコア(独自算出の注目度): 33.500649361436366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite neural networks (NN) have been widely applied in various fields and
generally outperforms humans, they still lack interpretability to a certain
extent, and humans are unable to intuitively understand the decision logic of
NN. This also hinders the knowledge interaction between humans and NN,
preventing humans from getting involved to give direct guidance when NN's
decisions go wrong. While recent research in explainable AI has achieved
interpretability of NN from various perspectives, it has not yet provided
effective methods for knowledge exchange between humans and NN. To address this
problem, we constructed a two-way interaction interface that uses structured
representations of visual concepts and their relationships as the "language"
for knowledge exchange between humans and NN. Specifically, NN provide
intuitive reasoning explanations to humans based on the class-specific
structural concepts graph (C-SCG). On the other hand, humans can modify the
biases present in the C-SCG through their prior knowledge and reasoning
ability, and thus provide direct knowledge guidance to NN through this
interface. Through experimental validation, based on this interaction
interface, NN can provide humans with easily understandable explanations of the
reasoning process. Furthermore, human involvement and prior knowledge can
directly and effectively contribute to enhancing the performance of NN.
- Abstract(参考訳): ニューラルネットワーク(NN)は、様々な分野に広く適用され、一般に人間よりも優れていますが、それでもある程度の解釈性がなく、NNの決定ロジックを直感的に理解することができないのです。
これはまた、人間とnnの間の知識の相互作用を阻害し、nnの決定が失敗したときに人間が直接指導するのを妨げる。
説明可能なAIに関する最近の研究は、様々な観点からNNの解釈可能性を達成したが、人間とNN間の知識交換のための効果的な方法はまだ提供されていない。
そこで我々は,人間とNNの知識交換のための「言語」として,視覚概念とその関係の構造化表現を用いた双方向インタラクションインタフェースを構築した。
具体的には、nnはクラス固有の構造概念グラフ(c-scg)に基づいて人間に直感的な推論説明を提供する。
一方、人間がC-SCGに存在するバイアスを事前の知識と推論能力で修正できるため、このインタフェースを通じてNNに直接的な知識ガイダンスを提供することができる。
このインタラクションインターフェースに基づく実験的な検証により、NNは推論プロセスの理解しやすい説明を人間に提供することができる。
さらに、人間の関与と事前知識は、NNの性能向上に直接的かつ効果的に寄与することができる。
関連論文リスト
- Layerwise Change of Knowledge in Neural Networks [25.919449855059415]
本稿では、ディープニューラルネットワークが新しい知識を徐々に抽出し、前方伝播の層を通してノイズのある特徴を忘れる方法について説明する。
前方伝播中の各層における新しい相互作用と忘れられた相互作用を定量化し追跡する。
論文 参考訳(メタデータ) (2024-09-13T10:59:24Z) - Learning Interpretable Differentiable Logic Networks [3.8064485653035987]
解釈可能な微分可能論理ネットワーク(DLN)を学習するための新しい手法を提案する。
我々はこれらのネットワークを、入力の双対化、二項論理演算、ニューロン間の接続を通じて、個々の成分の軟化と差別化によって訓練する。
20の分類タスクの実験結果は、従来のNNと同等かそれ以上の精度で、微分可能な論理ネットワークが達成可能であることを示している。
論文 参考訳(メタデータ) (2024-07-04T21:58:26Z) - Two-Phase Dynamics of Interactions Explains the Starting Point of a DNN Learning Over-Fitted Features [68.3512123520931]
深層ニューラルネットワーク(DNN)学習相互作用のダイナミクスについて検討する。
本稿では,DNNが2段階の相互作用を学習していることを明らかにする。
第1相は主に中位と高位の相互作用を罰し、第2相は徐々に増加する順序の相互作用を学習する。
論文 参考訳(メタデータ) (2024-05-16T17:13:25Z) - Defining and Extracting generalizable interaction primitives from DNNs [22.79131582164054]
我々は、異なるディープニューラルネットワーク(DNN)で共有される相互作用を抽出する新しい方法を開発した。
実験により、抽出された相互作用は、異なるDNNが共有する共通知識をよりよく反映できることが示された。
論文 参考訳(メタデータ) (2024-01-29T17:21:41Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Global Concept-Based Interpretability for Graph Neural Networks via
Neuron Analysis [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連タスクに非常に効果的である。
解釈性と透明性が欠如している。
現在の説明可能性のアプローチは一般的にローカルで、GNNをブラックボックスとして扱う。
本稿では,ニューロンレベルの概念を用いたGNNのグローバルな説明を創出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T21:30:55Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Artificial Neural Network Pruning to Extract Knowledge [0.0]
本稿では,これらの問題を解決するための基本的NN単純化問題と制御プルーニング手順を列挙する。
提案手法は,各タスクに対するNNの最適構造を確認し,各入力信号とNNパラメータの影響を測定し,NNのアルゴリズムとスキルの詳細な記述を提供する。
論文 参考訳(メタデータ) (2020-05-13T12:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。