論文の概要: Multi-Scale Label Relation Learning for Multi-Label Classification Using
1-Dimensional Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2107.05941v1
- Date: Tue, 13 Jul 2021 09:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:37:17.928371
- Title: Multi-Scale Label Relation Learning for Multi-Label Classification Using
1-Dimensional Convolutional Neural Networks
- Title(参考訳): 1次元畳み込みニューラルネットワークを用いたマルチラベル分類のためのマルチスケールラベル関係学習
- Authors: Junhyung Kim, Byungyoon Park, Charmgil Hong
- Abstract要約: MSDN(Multi-Scale Label Dependence Relation Networks)を提案する。
MSDNは1次元の畳み込みカーネルを使用してラベルの依存関係をマルチスケールで学習する。
我々は,RNNベースのMLCモデルと比較して,モデルパラメータの少ないモデルで精度を向上できることを実証した。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Multi-Scale Label Dependence Relation Networks (MSDN), a novel
approach to multi-label classification (MLC) using 1-dimensional convolution
kernels to learn label dependencies at multi-scale. Modern multi-label
classifiers have been adopting recurrent neural networks (RNNs) as a memory
structure to capture and exploit label dependency relations. The RNN-based MLC
models however tend to introduce a very large number of parameters that may
cause under-/over-fitting problems. The proposed method uses the 1-dimensional
convolutional neural network (1D-CNN) to serve the same purpose in a more
efficient manner. By training a model with multiple kernel sizes, the method is
able to learn the dependency relations among labels at multiple scales, while
it uses a drastically smaller number of parameters. With public benchmark
datasets, we demonstrate that our model can achieve better accuracies with much
smaller number of model parameters compared to RNN-based MLC models.
- Abstract(参考訳): 本稿では,1次元畳み込みカーネルを用いたマルチラベル分類(mlc)に対する新しいアプローチであるマルチスケールラベル依存関係ネットワーク(msdn)を提案する。
現代のマルチラベル分類器は、ラベル依存関係を捕捉し活用するためのメモリ構造として、リカレントニューラルネットワーク(RNN)を採用している。
しかし、RNNベースのLCCモデルは、過度に適合する問題を引き起こす可能性のある非常に多くのパラメータを導入する傾向がある。
提案手法は,1次元畳み込みニューラルネットワーク(1D-CNN)を用いて,より効率的な目的を達成する。
複数のカーネルサイズを持つモデルをトレーニングすることにより,ラベル間の依存関係関係を複数のスケールで学習することが可能になる。
公開ベンチマークデータセットを用いて、RNNベースのMLCモデルと比較して、モデルパラメータの少ないモデルで精度を向上できることを実証する。
関連論文リスト
- Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - Granger Causality using Neural Networks [7.62566998854384]
本稿では,非線型性を計算的に効率的に処理できる新しいモデルのクラスを提案する。
罰則を分離することで、遅延と個々の時系列の重要度を直接分離できることを示す。
GC推定のプロセス中にラグ順を選択したいので、これは重要です。
論文 参考訳(メタデータ) (2022-08-07T12:02:48Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Multi network InfoMax: A pre-training method involving graph
convolutional networks [0.0]
本稿では,グラフ畳み込み/ニューラルネットワーク(GCN/GNN)を含む事前学習手法を提案する。
学習された高レベルグラフ潜在表現は、下流グラフ分類タスクのパフォーマンス向上に役立つ。
我々は、被験者を健康管理群(HC)と統合失調症群(SZ)に分類するための神経画像データセットに適用した。
論文 参考訳(メタデータ) (2021-11-01T21:53:20Z) - Gated recurrent units and temporal convolutional network for multilabel
classification [122.84638446560663]
本研究は,マルチラベル分類を管理するための新しいアンサンブル手法を提案する。
提案手法のコアは,Adamグラデーション最適化アプローチの変種で訓練された,ゲート再帰単位と時間畳み込みニューラルネットワークの組み合わせである。
論文 参考訳(メタデータ) (2021-10-09T00:00:16Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。