論文の概要: Learn Class Hierarchy using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2005.08622v1
- Date: Mon, 18 May 2020 12:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:02:57.738675
- Title: Learn Class Hierarchy using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた階層学習
- Authors: Riccardo La Grassa, Ignazio Gallo, Nicola Landro
- Abstract要約: 画像の階層的分類のための新しいアーキテクチャを提案し、クロスエントロピー損失関数と中心損失を組み合わせた深層線形層を導入する。
階層型分類器は,コンピュータビジョンタスクへの応用を見出す従来の分類手法の利点を示す。
- 参考スコア(独自算出の注目度): 0.9569316316728905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large amount of research on Convolutional Neural Networks has focused on
flat Classification in the multi-class domain. In the real world, many problems
are naturally expressed as problems of hierarchical classification, in which
the classes to be predicted are organized in a hierarchy of classes. In this
paper, we propose a new architecture for hierarchical classification of images,
introducing a stack of deep linear layers with cross-entropy loss functions and
center loss combined. The proposed architecture can extend any neural network
model and simultaneously optimizes loss functions to discover local
hierarchical class relationships and a loss function to discover global
information from the whole class hierarchy while penalizing class hierarchy
violations. We experimentally show that our hierarchical classifier presents
advantages to the traditional classification approaches finding application in
computer vision tasks.
- Abstract(参考訳): 畳み込みニューラルネットワークに関する多くの研究は、マルチクラスドメインのフラット分類に焦点を当てている。
実世界では、多くの問題は階層的な分類の問題として自然に表され、予測されるクラスはクラス階層で整理される。
本稿では,クロスエントロピー損失関数と中心損失を組み合わせた深層線形層を導入し,階層的な画像分類のための新しいアーキテクチャを提案する。
提案アーキテクチャは、任意のニューラルネットワークモデルを拡張し、損失関数を同時に最適化し、局所階層的なクラス関係と損失関数を発見し、クラス階層の違反をペナルライズしながらクラス階層全体からグローバル情報を検出する。
コンピュータビジョンタスクに応用する従来の分類手法に対して,階層的分類器の利点を実験的に示す。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - How Deep Neural Networks Learn Compositional Data: The Random Hierarchy Model [47.617093812158366]
言語と画像の階層構造にインスパイアされた合成タスクのファミリーであるランダム階層モデルを紹介する。
深層ネットワークは、等価なグループを交換するために不変な内部表現を開発することでタスクを学習する。
この結果から, ネットワークは次元の呪いを克服し, 不変表現を構築できることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T09:11:09Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Encoding Hierarchical Information in Neural Networks helps in
Subpopulation Shift [8.01009207457926]
ディープニューラルネットワークは画像分類のタスクに適していることが証明されている。
本研究では,新しい条件付き教師あり学習フレームワークのレンズを用いて,上記の問題について検討する。
この構造的階層的な学習によって、サブ人口移動に対してより堅牢なネットワークが得られることを示す。
論文 参考訳(メタデータ) (2021-12-20T20:26:26Z) - United We Learn Better: Harvesting Learning Improvements From Class
Hierarchies Across Tasks [9.687531080021813]
本稿では,確率と集合論に基づいて,親の予測と階層的損失を抽出する理論的枠組みを提案する。
その結果、分類と検出のベンチマークにまたがって結果が示され、シグモイドに基づく検出アーキテクチャの階層的学習の可能性が開かれた。
論文 参考訳(メタデータ) (2021-07-28T20:25:37Z) - Connecting Sphere Manifolds Hierarchically for Regularization [16.082095595061617]
階層的なクラスによる分類問題を考察する。
我々の手法は、球面完全連結層と階層層を組み合わせることによって、ニューラルネットワークの最後の層を置き換える。
この正規化は、広く使われているディープニューラルネットワークアーキテクチャのパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2021-06-25T10:51:36Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Adaptive Hierarchical Decomposition of Large Deep Networks [4.272649614101117]
データセットが大きくなるにつれて、既存のディープラーニングアーキテクチャが一般的な人間によって認識可能な50以上のクラスを扱うように拡張できるかどうかという自然な疑問がある。
本稿では,単一大規模ネットワークの代替として,より小さなディープネットワーク群を自動解析し,構成するフレームワークを提案する。
結果として、より小さなネットワークは、高度にスケーラブルで、並列であり、訓練もより実践的であり、より高い分類精度を達成する。
論文 参考訳(メタデータ) (2020-07-17T21:04:50Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。