論文の概要: Introducing Fuzzy Layers for Deep Learning
- arxiv url: http://arxiv.org/abs/2003.00880v1
- Date: Fri, 21 Feb 2020 19:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:25:39.692149
- Title: Introducing Fuzzy Layers for Deep Learning
- Title(参考訳): ディープラーニングのためのファジィレイヤの導入
- Authors: Stanton R. Price, Steven R. Price, Derek T. Anderson
- Abstract要約: ディープラーニングにはファジィレイヤという,新たなレイヤを導入しています。
従来、ニューラルネットワークのネットワークアーキテクチャは、入力層、隠された層の組み合わせ、出力層から構成されていた。
本稿では,ファジィ手法によって表現される強力な集約特性を活用するために,ファジィ層をディープラーニングアーキテクチャに導入することを提案する。
- 参考スコア(独自算出の注目度): 5.209583609264815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many state-of-the-art technologies developed in recent years have been
influenced by machine learning to some extent. Most popular at the time of this
writing are artificial intelligence methodologies that fall under the umbrella
of deep learning. Deep learning has been shown across many applications to be
extremely powerful and capable of handling problems that possess great
complexity and difficulty. In this work, we introduce a new layer to deep
learning: the fuzzy layer. Traditionally, the network architecture of neural
networks is composed of an input layer, some combination of hidden layers, and
an output layer. We propose the introduction of fuzzy layers into the deep
learning architecture to exploit the powerful aggregation properties expressed
through fuzzy methodologies, such as the Choquet and Sugueno fuzzy integrals.
To date, fuzzy approaches taken to deep learning have been through the
application of various fusion strategies at the decision level to aggregate
outputs from state-of-the-art pre-trained models, e.g., AlexNet, VGG16,
GoogLeNet, Inception-v3, ResNet-18, etc. While these strategies have been shown
to improve accuracy performance for image classification tasks, none have
explored the use of fuzzified intermediate, or hidden, layers. Herein, we
present a new deep learning strategy that incorporates fuzzy strategies into
the deep learning architecture focused on the application of semantic
segmentation using per-pixel classification. Experiments are conducted on a
benchmark data set as well as a data set collected via an unmanned aerial
system at a U.S. Army test site for the task of automatic road segmentation,
and preliminary results are promising.
- Abstract(参考訳): 近年開発された最先端技術の多くは、ある程度機械学習の影響を受けている。
この執筆時点で最も人気があるのは、ディープラーニングの傘下にある人工知能方法論である。
ディープラーニングは、多くのアプリケーションで非常に強力で、非常に複雑で難しい問題に対処できることが示されている。
本稿では,深層学習のための新たな層であるファジィ層について紹介する。
伝統的に、ニューラルネットワークのネットワークアーキテクチャは、入力層、隠された層の組み合わせ、そして出力層で構成されている。
深層学習アーキテクチャにファジィ層を導入して,チェケットやスグノファジィ積分のようなファジィ手法によって表現される強力な集約特性を活用することを提案する。
これまで、ディープラーニングに向けられたファジィなアプローチは、最先端の訓練済みモデル(例えば、AlexNet、VGG16、GoogLeNet、Inception-v3、ResNet-18など)から出力を集約するために、様々な融合戦略を意思決定レベルで適用してきた。
これらの戦略は、画像分類タスクの精度向上を図っているが、ファジファイド中間層や隠蔽層の使用についての調査は行われていない。
本稿では,ピクセル単位の分類を用いた意味セグメンテーションの適用に焦点を当てた,ファジィ戦略をディープラーニングアーキテクチャに組み込んだ新しいディープラーニング戦略を提案する。
試験は、自動道路分割作業のためのアメリカ陸軍試験場で、無人航空システムを介して収集されたデータとともに、ベンチマークデータセット上で実施され、予備的な結果が期待できる。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - A Generic Layer Pruning Method for Signal Modulation Recognition Deep Learning Models [17.996775444294276]
ディープニューラルネットワークは信号分類の方法として好まれている。
それらはしばしば高い計算複雑性と大きなモデルサイズを持つ。
本稿では,この課題に対処する新しいレイヤ・プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:46:37Z) - Generalized Label-Efficient 3D Scene Parsing via Hierarchical Feature
Aligned Pre-Training and Region-Aware Fine-tuning [55.517000360348725]
本研究は,ラベル付きシーンが極めて限定された場合の3次元シーン理解のためのフレームワークを提案する。
事前学習された視覚言語モデルから新しいカテゴリーの知識を抽出するために,階層的特徴整合型事前学習と知識蒸留戦略を提案する。
室内と屋外の両方で実験を行ったところ、データ効率のよい学習とオープンワールドの複数ショット学習の両方において、我々のアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-12-01T15:47:04Z) - Understanding Deep Representation Learning via Layerwise Feature
Compression and Discrimination [33.273226655730326]
深層線形ネットワークの各層は、幾何速度でクラス内特徴を徐々に圧縮し、線形速度でクラス間特徴を識別することを示す。
これは、ディープ線形ネットワークの階層的表現における特徴進化の最初の定量的評価である。
論文 参考訳(メタデータ) (2023-11-06T09:00:38Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - A Law of Data Separation in Deep Learning [41.58856318262069]
ニューラルネットワークが中間層でどのようにデータを処理しているかという根本的な問題について検討する。
私たちの発見は、ディープニューラルネットワークがクラスメンバーシップに従ってどのようにデータを分離するかを規定する、シンプルで定量的な法則です。
論文 参考訳(メタデータ) (2022-10-31T02:25:38Z) - A Layer-Wise Information Reinforcement Approach to Improve Learning in
Deep Belief Networks [0.4893345190925178]
本稿では,情報強化層を層単位で検討し,特徴抽出と知識保持を改善するResidual Deep Belief Networkを提案する。
3つの公開データセットで実施した実験は、バイナリイメージ分類のタスクに関する堅牢性を示している。
論文 参考訳(メタデータ) (2021-01-17T18:53:18Z) - Neural Function Modules with Sparse Arguments: A Dynamic Approach to
Integrating Information across Layers [84.57980167400513]
Neural Function Modules (NFM)は、ディープラーニングに同じ構造機能を導入することを目的としている。
トップダウンとボトムアップのフィードバックを組み合わせたフィードフォワードネットワークのコンテキストにおける作業のほとんどは、分類の問題に限られている。
私たちの仕事の重要な貢献は、フレキシブルなアルゴリズムで注意、疎結合、トップダウン、ボトムアップのフィードバックを組み合わせることです。
論文 参考訳(メタデータ) (2020-10-15T20:43:17Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images [15.236873250912062]
デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-13T02:59:31Z) - Understanding Deep Architectures with Reasoning Layer [60.90906477693774]
本研究では,アルゴリズムの収束,安定性,感度といった特性が,エンドツーエンドモデルの近似と一般化能力と密接に関連していることを示す。
私たちの理論は、深いアーキテクチャを推論層で設計するための有用なガイドラインを提供することができます。
論文 参考訳(メタデータ) (2020-06-24T00:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。