論文の概要: Hide-and-Seek: A Template for Explainable AI
- arxiv url: http://arxiv.org/abs/2005.00130v1
- Date: Thu, 30 Apr 2020 22:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 02:55:59.366411
- Title: Hide-and-Seek: A Template for Explainable AI
- Title(参考訳): Hide-and-Seek: 説明可能なAIのテンプレート
- Authors: Thanos Tagaris, Andreas Stafylopatis
- Abstract要約: 本研究では,解釈可能なニューラルネットワークを学習するためのHyden-and-Seek(HnS)と呼ばれる新しいフレームワークを提案する。
大規模な実験は、予測力を犠牲にすることなく、高い解釈可能性をニューラルネットワークに含めることができることを示している。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Lack of transparency has been the Achilles heal of Neural Networks and their
wider adoption in industry. Despite significant interest this shortcoming has
not been adequately addressed. This study proposes a novel framework called
Hide-and-Seek (HnS) for training Interpretable Neural Networks and establishes
a theoretical foundation for exploring and comparing similar ideas. Extensive
experimentation indicates that a high degree of interpretability can be imputed
into Neural Networks, without sacrificing their predictive power.
- Abstract(参考訳): 透明性の欠如は、ニューラルネットワークとその業界での広範な採用に対するアキレスの癒しである。
かなりの関心にもかかわらず、この欠点は十分に解決されていない。
本研究では,解釈可能なニューラルネットワークを学習するためのHyden-and-Seek(HnS)という新しいフレームワークを提案し,類似したアイデアを探索・比較するための理論的基盤を確立する。
大規模な実験は、予測力を犠牲にすることなく、高い解釈可能性をニューラルネットワークに含めることができることを示している。
関連論文リスト
- Understanding polysemanticity in neural networks through coding theory [0.8702432681310401]
本稿では,ネットワークの解釈可能性に関する新たな実践的アプローチと,多意味性やコードの密度に関する理論的考察を提案する。
ランダムなプロジェクションによって、ネットワークがスムーズか非微分可能かが明らかになり、コードがどのように解釈されるかを示す。
我々のアプローチは、ニューラルネットワークにおける解釈可能性の追求を前進させ、その基盤となる構造についての洞察を与え、回路レベルの解釈可能性のための新たな道を提案する。
論文 参考訳(メタデータ) (2024-01-31T16:31:54Z) - Verification-Friendly Deep Neural Networks [3.6064695344878093]
検証フレンドリなニューラルネットワーク(VNN)を生成するための新しいフレームワークを提案する。
提案手法は,予測性能の点で元のネットワークに匹敵するネットワークを実現する。
これにより、ディープニューラルネットワークよりも多くのVNNに対して堅牢性を確立することができます。
論文 参考訳(メタデータ) (2023-12-15T12:39:27Z) - DISCOVER: Making Vision Networks Interpretable via Competition and
Dissection [11.028520416752325]
この研究は、ポストホック解釈可能性、特にネットワーク分割に寄与する。
私たちのゴールは、視覚タスクで訓練されたネットワークにおいて、各ニューロンの個々の機能を容易に発見できるフレームワークを提供することです。
論文 参考訳(メタデータ) (2023-10-07T21:57:23Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Neural Bayesian Network Understudy [13.28673601999793]
ニューラルネットワークは条件付き確率を出力するように訓練でき、ベイズネットワークとほぼ同じ機能を提供する。
ニューラルネットワークに与えられた因果構造から推定される独立関係を符号化する2つのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-11-15T15:56:51Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - How does unlabeled data improve generalization in self-training? A
one-hidden-layer theoretical analysis [93.37576644429578]
この研究は、既知の反復的自己学習パラダイムに関する最初の理論的分析を確立する。
トレーニング収束と一般化能力の両面で、ラベルなしデータの利点を実証する。
また、浅部ニューラルネットワークから深部ニューラルネットワークへの実験は、我々の確立した自己学習に関する理論的知見の正しさを正当化するものである。
論文 参考訳(メタデータ) (2022-01-21T02:16:52Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - On Hiding Neural Networks Inside Neural Networks [30.20287788363144]
この過剰な能力は、トレーニングされたニューラルネットワークに秘密の機械学習モデルを組み込む機会を提供する。
我々の新しいフレームワークは、キャリアネットワーク内で任意の所望の機能を持つ秘密のニューラルネットワークの存在を隠蔽する。
論文 参考訳(メタデータ) (2020-02-24T05:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。