論文の概要: Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection
- arxiv url: http://arxiv.org/abs/2210.11033v1
- Date: Thu, 20 Oct 2022 06:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:25:36.038920
- Title: Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection
- Title(参考訳): 部分モジュラ関数のニューラル推定と微分可能部分集合選択への応用
- Authors: Abir De and Soumen Chakrabarti
- Abstract要約: サブモジュール関数と変種は、多様性とカバレッジを特徴付ける能力を通じて、データ選択と要約のための重要なツールとして登場した。
本稿では,モノトーンおよび非モノトーン部分モジュラー関数のためのフレキシブルニューラルネットワークであるFLEXSUBNETを提案する。
- 参考スコア(独自算出の注目度): 50.14730810124592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Submodular functions and variants, through their ability to characterize
diversity and coverage, have emerged as a key tool for data selection and
summarization. Many recent approaches to learn submodular functions suffer from
limited expressiveness. In this work, we propose FLEXSUBNET, a family of
flexible neural models for both monotone and non-monotone submodular functions.
To fit a latent submodular function from (set, value) observations, FLEXSUBNET
applies a concave function on modular functions in a recursive manner. We do
not draw the concave function from a restricted family, but rather learn from
data using a highly expressive neural network that implements a differentiable
quadrature procedure. Such an expressive neural model for concave functions may
be of independent interest. Next, we extend this setup to provide a novel
characterization of monotone \alpha-submodular functions, a recently introduced
notion of approximate submodular functions. We then use this characterization
to design a novel neural model for such functions. Finally, we consider
learning submodular set functions under distant supervision in the form of
(perimeter-set, high-value-subset) pairs. This yields a novel subset selection
method based on an order-invariant, yet greedy sampler built around the above
neural set functions. Our experiments on synthetic and real data show that
FLEXSUBNET outperforms several baselines.
- Abstract(参考訳): 多様性とカバレッジを特徴付ける機能を通じて、サブモジュラー機能と変種が、データ選択と要約の重要なツールとして登場した。
部分モジュラ函数を学習する最近の多くのアプローチは、表現力に制限がある。
本稿では,単調と非単調の両方のサブモジュラー関数に対するフレキシブルニューラルモデルのファミリーであるflexsubnetを提案する。
FLEXSUBNET は (集合, 値) 観測から潜在部分モジュラ函数に適合するため、再帰的にモジュラ函数に凹函数を適用する。
制限されたファミリーから凹凸関数を描くのではなく、微分可能な二次手順を実装する高度に表現力のあるニューラルネットワークを用いてデータから学習する。
このような凹函数の表現的ニューラルモデルは独立した関心事であるかもしれない。
次に、この設定を拡張して、最近導入された近似部分モジュラ函数の概念である単調 \alpha-submodular function の新たな特徴を与える。
次に、この特徴付けを用いて、このような機能のための新しいニューラルモデルを設計する。
最後に, (perimeter-set, high-value-subset) ペアの形で遠隔監督下でのサブモジュラー集合関数の学習について検討する。
これにより、上述の神経集合関数の周りに構築された順序不変だが欲張りなスプリマーに基づく新しい部分集合選択法が得られる。
合成および実データを用いた実験により,FLEXSUBNETはいくつかのベースラインを上回る性能を示した。
関連論文リスト
- Emergent Modularity in Pre-trained Transformers [127.08792763817496]
モジュラリティの主な特徴は、ニューロンの機能的特殊化と機能に基づくニューロングループ化である。
事前学習中にモジュラリティがどのように出現するかを調べた結果,モジュール構造が早期に安定していることが判明した。
このことはトランスフォーマーがまずモジュラ構造を構築し、次にきめ細かいニューロン関数を学ぶことを示唆している。
論文 参考訳(メタデータ) (2023-05-28T11:02:32Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Submodularity In Machine Learning and Artificial Intelligence [0.0]
我々は、部分モジュラー函数とその一般化の完全な記述である部分モジュラー定義の多元性を提供する。
そして、サブモジュラリティが機械学習と人工知能にどのように役立つかに目を向ける。
論文 参考訳(メタデータ) (2022-01-31T22:41:35Z) - Sparsification of Decomposable Submodular Functions [27.070004659301162]
サブモジュール関数は多くの機械学習とデータマイニングタスクの中核にある。
元の関数の根底にある部分モジュラ関数の数がとても多いので、処理に多くの時間が必要で、あるいはメインメモリに収まらない場合もあります。
分解可能部分モジュラ函数に対するスパーシフィケーションの概念を導入し、元の関数の正確な近似を得る目的は、少数の部分モジュラ函数の(重み付けされた)和である。
論文 参考訳(メタデータ) (2022-01-18T20:05:25Z) - Modern Non-Linear Function-on-Function Regression [8.231050911072755]
本稿では,ニューラルネットワークを用いた関数データに対する非線形関数オン関数回帰モデルを提案する。
FDNN(Functional Direct Neural Network)とFBNN(Functional Basis Neural Network)の2つのモデルフィッティング戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T16:19:59Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Continuous Submodular Function Maximization [91.17492610120324]
連続部分モジュラリティ (continuous submodularity) は、幅広い応用を持つ関数のクラスである。
連続的な部分モジュラ最適化の応用は、影響、推論のMAP、フィールドへの推論など多岐にわたる。
論文 参考訳(メタデータ) (2020-06-24T04:37:31Z) - A Parameterized Family of Meta-Submodular Functions [3.233545237942899]
我々は、部分モジュラ函数と多様性関数を含む超モジュラ函数のクラスを含む広いパラメータ化された単調関数群を与える。
我々は、$gamma$-submodular familyはメタ部分モジュラ函数、計量多様性関数、部分モジュラ函数などのよく知られた関数のクラスを含むことを示した。
論文 参考訳(メタデータ) (2020-06-23T16:45:12Z) - From Sets to Multisets: Provable Variational Inference for Probabilistic
Integer Submodular Models [82.95892656532696]
サブモジュール関数は機械学習やデータマイニングにおいて広く研究されている。
本研究では,整数部分モジュラ函数に対する連続DR-部分モジュラ拡張を提案する。
整数部分モジュラー関数によって定義される新しい確率モデルを定式化する。
論文 参考訳(メタデータ) (2020-06-01T22:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。