論文の概要: Searching for internal symbols underlying deep learning
- arxiv url: http://arxiv.org/abs/2405.20605v2
- Date: Mon, 18 Nov 2024 01:47:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:31:19.437772
- Title: Searching for internal symbols underlying deep learning
- Title(参考訳): 深層学習に基づく内部シンボルの探索
- Authors: Jung H. Lee, Sujith Vijayan,
- Abstract要約: ディープラーニング(DL)は、ディープニューラルネットワーク(DNN)が、指示や指針なしに、与えられた例から複雑なタスクやルールを自動的に学習することを可能にする。
研究の1行は、DNNが人間に認識可能な高いレベルの特徴である概念を学習する可能性があることを示唆している。
基礎セグメンテーションモデルと教師なし学習を組み合わせて、内部コードを抽出し、抽象コードの可能性を特定し、DLの決定をより信頼性と安全性を高める。
- 参考スコア(独自算出の注目度): 0.36832029288386137
- License:
- Abstract: Deep learning (DL) enables deep neural networks (DNNs) to automatically learn complex tasks or rules from given examples without instructions or guiding principles. As we do not engineer DNNs' functions, it is extremely difficult to diagnose their decisions, and multiple lines of studies proposed to explain the principles of their operations. Notably, one line of studies suggests that DNNs may learn concepts, the high level features that are recognizable to humans. In this study, we extend this line of studies and hypothesize that DNNs can develop abstract codes that can be used to augment DNNs' decision-making. To address this hypothesis, we combine foundation segmentation models and unsupervised learning to extract internal codes and identify potential use of abstract codes to make DL's decision-making more reliable and safer.
- Abstract(参考訳): ディープラーニング(DL)は、ディープニューラルネットワーク(DNN)が、指示や指針なしに、与えられた例から複雑なタスクやルールを自動的に学習することを可能にする。
DNNの機能を設計していないため、その決定を診断することは極めて困難であり、その動作の原理を説明するために複数の研究ラインが提案されている。
特に、ある研究は、DNNが人間にとって認識可能な高いレベルの特徴である概念を学習する可能性があることを示唆している。
本研究では,DNNがDNNの意思決定を強化するために使用できる抽象コードを開発することができるという仮説を立てる。
この仮説に対処するために、基礎セグメントモデルと教師なし学習を組み合わせて、内部コードを抽出し、抽象コードの可能性を特定し、DLの決定をより信頼性と安全性を高める。
関連論文リスト
- Enhancing Deep Learning with Scenario-Based Override Rules: a Case Study [0.0]
ディープニューラルネットワーク(DNN)は、ソフトウェア開発ツールキットにおいて重要な手段となっている。
DNNは非常に不透明で、不慣れな入力に遭遇すると予期せぬ振る舞いをする。
1つの有望なアプローチは、手作りのオーバーライドルールでDNNベースのシステムを拡張することである。
論文 参考訳(メタデータ) (2023-01-19T15:06:32Z) - SimpleMind adds thinking to deep neural networks [3.888848425698769]
ディープニューラルネットワーク(DNN)はデータのパターンを検出し、多くのコンピュータビジョンアプリケーションで汎用性と強力なパフォーマンスを示している。
DNNだけでは、単純で常識的な概念に反する明らかな誤りに陥り、明確な知識を使って探索と意思決定を導く能力に制限がある。
本稿では,医療画像理解に焦点を当てたCognitive AIのためのオープンソースソフトウェアフレームワークであるSimpleMindを紹介する。
論文 参考訳(メタデータ) (2022-12-02T03:38:20Z) - Taming Reachability Analysis of DNN-Controlled Systems via
Abstraction-Based Training [14.787056022080625]
本稿では, 到達可能性解析における過剰近似DNNの欠如を回避するための, 抽象的アプローチを提案する。
我々は、実数をトレーニングの間隔に抽象化する抽象層を挿入することで、従来のDNNを拡張した。
我々は、DNN制御システムに対する最初のブラックボックス到達可能性分析手法を考案し、訓練されたDNNは抽象状態に対するアクションのためのブラックボックスオラクルとしてのみクエリされる。
論文 参考訳(メタデータ) (2022-11-21T00:11:50Z) - Analysis of functional neural codes of deep learning models: Functional
Telescope Hypothesis [2.045460181566931]
自己組織化マップ(SOM)を用いて、ディープラーニングモデルの意思決定に関連する内部コードを分析する。
解析の結果, 入力層近傍の浅層は圧縮された空間に圧縮され, 出力層近傍の深層は特徴空間を拡大することが示唆された。
また、圧縮された特徴がDNNの脆弱性を敵の摂動に負わせる可能性があることを示す証拠も発見された。
論文 参考訳(メタデータ) (2022-05-22T23:14:27Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。