論文の概要: Deep Submodular Networks for Extractive Data Summarization
- arxiv url: http://arxiv.org/abs/2010.08593v1
- Date: Fri, 16 Oct 2020 19:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:40:07.841999
- Title: Deep Submodular Networks for Extractive Data Summarization
- Title(参考訳): 抽出データ要約のためのディープサブモジュラーネットワーク
- Authors: Suraj Kothawade, Jiten Girdhar, Chandrashekhar Lavania, Rishabh Iyer
- Abstract要約: 本稿では,要約問題に対するエンドツーエンド学習フレームワークを提案する。
Deep Submodular Networks (DSN)フレームワークは、スクラッチから要約に適した機能を学ぶために使用できる。
特に,DSNはオフ・ザ・シェルフ機能を用いて,単純な混合モデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.46898263272139784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Models are increasingly becoming prevalent in summarization problems
(e.g. document, video and images) due to their ability to learn complex feature
interactions and representations. However, they do not model characteristics
such as diversity, representation, and coverage, which are also very important
for summarization tasks. On the other hand, submodular functions naturally
model these characteristics because of their diminishing returns property. Most
approaches for modelling and learning submodular functions rely on very simple
models, such as weighted mixtures of submodular functions. Unfortunately, these
models only learn the relative importance of the different submodular functions
(such as diversity, representation or importance), but cannot learn more
complex feature representations, which are often required for state-of-the-art
performance. We propose Deep Submodular Networks (DSN), an end-to-end learning
framework that facilitates the learning of more complex features and richer
functions, crafted for better modelling of all aspects of summarization. The
DSN framework can be used to learn features appropriate for summarization from
scratch. We demonstrate the utility of DSNs on both generic and query focused
image-collection summarization, and show significant improvement over the
state-of-the-art. In particular, we show that DSNs outperform simple mixture
models using off the shelf features. Secondly, we also show that just using
four submodular functions in a DSN with end-to-end learning performs comparably
to the state-of-the-art mixture model with a hand-crafted set of 594 components
and outperforms other methods for image collection summarization.
- Abstract(参考訳): 複雑な特徴の相互作用や表現を学習する能力があるため、要約問題(文書、ビデオ、画像など)において、深層モデルがますます普及している。
しかし、それらは多様性、表現、カバレッジといった特徴をモデル化していない。
一方、部分モジュラ関数は帰納性が低下するため、自然にこれらの特性をモデル化する。
部分モジュラ関数のモデリングと学習のアプローチのほとんどは、部分モジュラ関数の重み付き混合のような非常に単純なモデルに依存している。
残念なことに、これらのモデルは異なる部分モジュラ函数(多様性、表現、重要性など)の相対的な重要性しか学ばないが、より複雑な特徴表現は学べない。
我々は,より複雑な特徴とよりリッチな関数の学習を容易にするエンドツーエンド学習フレームワークであるDeep Submodular Networks (DSN)を提案する。
DSNフレームワークは、スクラッチから要約に適した機能を学ぶために使用できる。
本稿では,dsnの汎用的およびクエリ重視のイメージコレクション要約における有用性を示すとともに,最先端技術に対する大幅な改善を示す。
特に,dsnは本棚の特徴を用いた単純な混合モデルよりも優れていることを示す。
第2に,dsnの4つの部分モジュラ関数をエンドツーエンド学習で使用するだけで,手作りの574のコンポーネントセットで最先端の混合モデルに比較可能であり,画像収集の他の手法に勝ることを示す。
関連論文リスト
- MLP-KAN: Unifying Deep Representation and Function Learning [7.634331640151854]
そこで本研究では,手動モデル選択の必要性を解消する統一手法を提案する。
表現学習にMLP(Multi-Layer Perceptrons)と関数学習にKolmogorov-Arnold Networks(KANsogo)を統合することにより,優れた結果が得られた。
論文 参考訳(メタデータ) (2024-10-03T22:22:43Z) - Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Representation Surgery for Multi-Task Model Merging [57.63643005215592]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Neural Basis Models for Interpretability [33.51591891812176]
一般化加法モデル(GAMs)は本質的に解釈可能なモデルのクラスである。
形状関数の基底分解を利用するGAMの全く新しいサブファミリーを提案する。
少数の基底関数はすべての機能で共有され、与えられたタスクに対して共同で学習される。
論文 参考訳(メタデータ) (2022-05-27T17:31:19Z) - Submodularity In Machine Learning and Artificial Intelligence [0.0]
我々は、部分モジュラー函数とその一般化の完全な記述である部分モジュラー定義の多元性を提供する。
そして、サブモジュラリティが機械学習と人工知能にどのように役立つかに目を向ける。
論文 参考訳(メタデータ) (2022-01-31T22:41:35Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Revealing the Invisible with Model and Data Shrinking for
Composite-database Micro-expression Recognition [49.463864096615254]
入力複雑性とモデル複雑性を含む学習複雑性の影響を分析する。
より浅層構造と低分解能入力データを探索する再帰畳み込みネットワーク(RCN)を提案する。
学習可能なパラメータを増やさなくてもRCNと統合できる3つのパラメータフリーモジュールを開発した。
論文 参考訳(メタデータ) (2020-06-17T06:19:24Z) - From Sets to Multisets: Provable Variational Inference for Probabilistic
Integer Submodular Models [82.95892656532696]
サブモジュール関数は機械学習やデータマイニングにおいて広く研究されている。
本研究では,整数部分モジュラ函数に対する連続DR-部分モジュラ拡張を提案する。
整数部分モジュラー関数によって定義される新しい確率モデルを定式化する。
論文 参考訳(メタデータ) (2020-06-01T22:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。