論文の概要: Extended Deep Submodular Functions
- arxiv url: http://arxiv.org/abs/2409.12053v1
- Date: Wed, 18 Sep 2024 15:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 16:55:29.583096
- Title: Extended Deep Submodular Functions
- Title(参考訳): 拡張深部部分モジュラー関数
- Authors: Seyed Mohammad Hosseini, Arash Jamshid, Seyed Mahdi Noormousavi, Mahdi Jafari Siavoshani, Naeimeh Omidvar,
- Abstract要約: 拡張Deep Submodular Function (EDSF) と呼ばれる新しい集合関数のカテゴリを導入する。
EDSFはDeep Submodular Functions(DSF)の拡張として機能し、生来の制限に対処しながら、DSFから重要なプロパティを継承する。
その結果,EDSFは任意の単調集合関数を表わすことができ,EDSFの族はすべての単調集合関数の族と同値であることが示唆された。
- 参考スコア(独自算出の注目度): 4.342261315851938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel category of set functions called Extended Deep Submodular functions (EDSFs), which are neural network-representable. EDSFs serve as an extension of Deep Submodular Functions (DSFs), inheriting crucial properties from DSFs while addressing innate limitations. It is known that DSFs can represent a limiting subset of submodular functions. In contrast, through an analysis of polymatroid properties, we establish that EDSFs possess the capability to represent all monotone submodular functions, a notable enhancement compared to DSFs. Furthermore, our findings demonstrate that EDSFs can represent any monotone set function, indicating the family of EDSFs is equivalent to the family of all monotone set functions. Additionally, we prove that EDSFs maintain the concavity inherent in DSFs when the components of the input vector are non-negative real numbers-an essential feature in certain combinatorial optimization problems. Through extensive experiments, we illustrate that EDSFs exhibit significantly lower empirical generalization error than DSFs in the learning of coverage functions. This suggests that EDSFs present a promising advancement in the representation and learning of set functions with improved generalization capabilities.
- Abstract(参考訳): 本稿では,ニューラルネットワークを表現可能なEDSF(Extended Deep Submodular Function)という,集合関数の新たなカテゴリを紹介する。
EDSFはDeep Submodular Functions(DSF)の拡張として機能し、生来の制限に対処しながら、DSFから重要なプロパティを継承する。
DSFは部分モジュラ函数の極限部分集合を表現することが知られている。
対照的に、ポリマトロイド特性の解析により、EDSFは全てのモノトン部分モジュラー関数を表現できる能力を有しており、DSFと比較して顕著に拡張されている。
さらに,EDSFは任意の単調集合関数を表現でき,EDSFの族はすべての単調集合関数の族と同値であることを示す。
さらに、入力ベクトルの成分が非負の実数である場合、EDSFはDSFに固有の凹凸を維持できることを示す。
広範な実験を通して,EDSF はカバレッジ関数の学習において DSF よりも有意に低い経験的一般化誤差を示すことを示した。
このことは、EDSFが一般化能力を向上した集合関数の表現と学習において有望な進歩をもたらすことを示唆している。
関連論文リスト
- Unlocking Potential Binders: Multimodal Pretraining DEL-Fusion for Denoising DNA-Encoded Libraries [51.72836644350993]
マルチモーダルプレトレーニング DEL-Fusion Model (MPDF)
我々は,異なる複合表現とそれらのテキスト記述の対比対象を適用した事前学習タスクを開発する。
本稿では, 原子, 分子, 分子レベルでの複合情報をアマルガメートする新しいDEL融合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-07T17:32:21Z) - Demystifying Functional Random Forests: Novel Explainability Tools for Model Transparency in High-Dimensional Spaces [0.0]
本稿では,FRF(Functional Random Forests)の内部メカニズムを照らし出すための,新しい説明可能性ツールについて紹介する。
これらのツールは、個々のFPCがモデル予測にどのように貢献するかを詳細に分析することにより、FRFモデルの透明性を総合的に向上する。
論文 参考訳(メタデータ) (2024-08-22T10:52:32Z) - Ensemble Deep Random Vector Functional Link Neural Network Based on Fuzzy Inference System [0.6437284704257459]
アンサンブルディープランダムベクトル汎関数リンク(edRVFL)ニューラルネットワークは、従来の人工ニューラルネットワークの限界に対処する能力を示した。
本稿では,ファジィ推論システム(edRVFL-FIS)に基づく新しいEDRVFLを提案する。
論文 参考訳(メタデータ) (2024-06-02T17:01:44Z) - Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection [50.14730810124592]
サブモジュール関数と変種は、多様性とカバレッジを特徴付ける能力を通じて、データ選択と要約のための重要なツールとして登場した。
本稿では,モノトーンおよび非モノトーン部分モジュラー関数のためのフレキシブルニューラルネットワークであるFLEXSUBNETを提案する。
論文 参考訳(メタデータ) (2022-10-20T06:00:45Z) - Deep Frequency Filtering for Domain Generalization [55.66498461438285]
Deep Neural Networks(DNN)は、学習プロセスにおいて、いくつかの周波数成分を優先する。
本稿では、ドメイン一般化可能な特徴を学習するためのDeep Frequency Filtering (DFF)を提案する。
提案したDFFをベースラインに適用すると,ドメインの一般化タスクにおける最先端の手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-03-23T05:19:06Z) - Feature Decomposition and Reconstruction Learning for Effective Facial
Expression Recognition [80.17419621762866]
本稿では,表情認識のための特徴分解再構成学習(FDRL)手法を提案する。
FDRLは、FDN(Feature Decomposition Network)とFRN(Feature Restruction Network)の2つの重要なネットワークで構成されている。
論文 参考訳(メタデータ) (2021-04-12T02:22:45Z) - DFAC Framework: Factorizing the Value Function via Quantile Mixture for
Multi-Agent Distributional Q-Learning [7.893387199803367]
期待値関数ファクタリゼーション手法を一般化する分散値関数ファクタリゼーション(DFAC)フレームワークを提案する。
DFACは、個々のユーティリティ関数を決定論的変数からランダム変数に拡張し、全戻り値の量子関数を量子混合としてモデル化する。
DFACは,単純な2ステップマトリクスゲームを報酬付きで分解し,StarCraft Multi-Agent Challengeのすべてのスーパーハードタスクで実験を行う能力を示した。
論文 参考訳(メタデータ) (2021-02-16T03:16:49Z) - Concave Aspects of Submodular Functions [0.0]
部分モジュラー関数はエントロピーや相互情報などの情報理論の量を一般化する。
部分モジュラ函数も凹凸の兆候を示す。
上界に付随する超微分と多面体を特徴付け, 微分を用いた部分モジュラーの最適条件を提供する。
論文 参考訳(メタデータ) (2020-06-27T17:06:24Z) - Continuous Submodular Function Maximization [91.17492610120324]
連続部分モジュラリティ (continuous submodularity) は、幅広い応用を持つ関数のクラスである。
連続的な部分モジュラ最適化の応用は、影響、推論のMAP、フィールドへの推論など多岐にわたる。
論文 参考訳(メタデータ) (2020-06-24T04:37:31Z) - From Sets to Multisets: Provable Variational Inference for Probabilistic
Integer Submodular Models [82.95892656532696]
サブモジュール関数は機械学習やデータマイニングにおいて広く研究されている。
本研究では,整数部分モジュラ函数に対する連続DR-部分モジュラ拡張を提案する。
整数部分モジュラー関数によって定義される新しい確率モデルを定式化する。
論文 参考訳(メタデータ) (2020-06-01T22:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。