論文の概要: Deep Dependency Networks for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2302.00633v1
- Date: Wed, 1 Feb 2023 17:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 12:39:39.386598
- Title: Deep Dependency Networks for Multi-Label Classification
- Title(参考訳): マルチラベル分類のためのDeep Dependency Networks
- Authors: Shivvrat Arya, Yu Xiang and Vibhav Gogate
- Abstract要約: マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 24.24496964886951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a simple approach which combines the strengths of probabilistic
graphical models and deep learning architectures for solving the multi-label
classification task, focusing specifically on image and video data. First, we
show that the performance of previous approaches that combine Markov Random
Fields with neural networks can be modestly improved by leveraging more
powerful methods such as iterative join graph propagation, integer linear
programming, and $\ell_1$ regularization-based structure learning. Then we
propose a new modeling framework called deep dependency networks, which
augments a dependency network, a model that is easy to train and learns more
accurate dependencies but is limited to Gibbs sampling for inference, to the
output layer of a neural network. We show that despite its simplicity, jointly
learning this new architecture yields significant improvements in performance
over the baseline neural network. In particular, our experimental evaluation on
three video activity classification datasets: Charades, Textually Annotated
Cooking Scenes (TACoS), and Wetlab, and three multi-label image classification
datasets: MS-COCO, PASCAL VOC, and NUS-WIDE show that deep dependency networks
are almost always superior to pure neural architectures that do not use
dependency networks.
- Abstract(参考訳): 本稿では,多ラベル分類課題を解決するために,確率的グラフィカルモデルとディープラーニングアーキテクチャの強みを組み合わせた簡単なアプローチを提案する。
まず,反復結合グラフの伝播,整数線形計画,$\ell_1$正規化に基づく構造学習といったより強力な手法を活用し,マルコフ確率場とニューラルネットワークを結合した従来の手法の性能を緩やかに改善できることを示す。
次に、ニューラルネットワークの出力層に対して、トレーニングが容易で、より正確な依存関係を学習するが、推論のためのGibbsサンプリングに限られる、依存性ネットワークを拡張した、DeepDepend Networkと呼ばれる新しいモデリングフレームワークを提案する。
その単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、ベースラインニューラルネットワークよりもパフォーマンスが大幅に向上することを示す。
特に,3つのビデオアクティビティ分類データセット:Charades, Textually Annotated Cooking Scenes (TACoS), and Wetlab, そして3つのマルチラベル画像分類データセット: MS-COCO, PASCAL VOC, NUS-WIDEの実験的評価は,依存性ネットワークを使用しない純粋なニューラルネットワークに比べて,深い依存性ネットワークが常に優れていることを示している。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Deep Dependency Networks and Advanced Inference Schemes for Multi-Label Classification [7.643377057724898]
我々は、ディープ・ディペンデンス・ネットワーク(DDN)と呼ばれる統合されたフレームワークを提案する。
DDNは依存ネットワークと深層学習アーキテクチャを組み合わせてマルチラベル分類を行う。
マルコフネットワークと比較してDDNの欠点は、高度な推論スキームがないことである。
論文 参考訳(メタデータ) (2024-04-17T18:04:37Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。