論文の概要: Deep Dependency Networks and Advanced Inference Schemes for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2404.11667v1
- Date: Wed, 17 Apr 2024 18:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 20:10:25.527971
- Title: Deep Dependency Networks and Advanced Inference Schemes for Multi-Label Classification
- Title(参考訳): マルチラベル分類のためのディープ依存ネットワークと高度な推論方式
- Authors: Shivvrat Arya, Yu Xiang, Vibhav Gogate,
- Abstract要約: 我々は、ディープ・ディペンデンス・ネットワーク(DDN)と呼ばれる統合されたフレームワークを提案する。
DDNは依存ネットワークと深層学習アーキテクチャを組み合わせてマルチラベル分類を行う。
マルコフネットワークと比較してDDNの欠点は、高度な推論スキームがないことである。
- 参考スコア(独自算出の注目度): 7.643377057724898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a unified framework called deep dependency networks (DDNs) that combines dependency networks and deep learning architectures for multi-label classification, with a particular emphasis on image and video data. The primary advantage of dependency networks is their ease of training, in contrast to other probabilistic graphical models like Markov networks. In particular, when combined with deep learning architectures, they provide an intuitive, easy-to-use loss function for multi-label classification. A drawback of DDNs compared to Markov networks is their lack of advanced inference schemes, necessitating the use of Gibbs sampling. To address this challenge, we propose novel inference schemes based on local search and integer linear programming for computing the most likely assignment to the labels given observations. We evaluate our novel methods on three video datasets (Charades, TACoS, Wetlab) and three image datasets (MS-COCO, PASCAL VOC, NUS-WIDE), comparing their performance with (a) basic neural architectures and (b) neural architectures combined with Markov networks equipped with advanced inference and learning techniques. Our results demonstrate the superiority of our new DDN methods over the two competing approaches.
- Abstract(参考訳): 本稿では,複数ラベル分類のための依存性ネットワークとディープラーニングアーキテクチャを組み合わせて,画像およびビデオデータに特に重点を置く,DDN(DeepDependency Network)という統合フレームワークを提案する。
依存ネットワークの主な利点は、Markovネットワークのような他の確率論的グラフィカルモデルとは対照的に、トレーニングの容易さである。
特に、ディープラーニングアーキテクチャと組み合わせると、多ラベル分類のための直感的で使いやすい損失関数が提供される。
マルコフネットワークと比較してDDNの欠点は、高度な推論スキームが欠如していることであり、ギブスサンプリングの使用が必要である。
そこで本稿では,局所探索と整数線形プログラミングに基づく新しい推論手法を提案する。
我々は,3つのビデオデータセット(Charades, TACoS, Wetlab)と3つの画像データセット(MS-COCO, PASCAL VOC, NUS-WIDE)について,その性能を比較検討した。
a)基本的神経構造と
b) 高度な推論と学習技術を備えたマルコフネットワークと結合したニューラルアーキテクチャ。
本研究は,新しいDDN法が競合する2つの手法よりも優れていることを示す。
関連論文リスト
- Structure-Aware Consensus Network on Graphs with Few Labeled Nodes [7.438140196173472]
ラベル付きノードがほとんどないグラフノード分類は、監督が限られているため、大きな課題となる。
従来の手法では、しばしばトランスダクティブな学習方法でグラフを利用する。
本稿では,これらの課題を克服する構造対応コンセンサスネットワーク(SACN)を提案する。
論文 参考訳(メタデータ) (2024-07-02T11:46:07Z) - Unsupervised Graph Attention Autoencoder for Attributed Networks using
K-means Loss [0.0]
我々は、属性付きネットワークにおけるコミュニティ検出のための、教師なしのtextbfGraph Attention textbfAutotextbfEncoder に基づく、シンプルで効率的なクラスタリング指向モデルを提案する。
提案モデルは,ネットワークのトポロジと属性情報の両方から表現を十分に学習し,同時に2つの目的,すなわち再構築とコミュニティ発見に対処する。
論文 参考訳(メタデータ) (2023-11-21T20:45:55Z) - Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。