論文の概要: Monotone and Separable Set Functions: Characterizations and Neural Models
- arxiv url: http://arxiv.org/abs/2510.23634v1
- Date: Fri, 24 Oct 2025 09:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.301347
- Title: Monotone and Separable Set Functions: Characterizations and Neural Models
- Title(参考訳): モノトンと分離可能な集合関数:特徴とニューラルモデル
- Authors: Soutrik Sarangi, Yonatan Sverdlov, Nadav Dym, Abir De,
- Abstract要約: プロパティ Monotone and Separating (MAS) セット関数を満たす関数を呼び出します。
我々はMAS関数が存在しないことを示すが、緩和されたMAS特性を確実に享受する我々のモデルを提供する。
また、MAS関数は、構成によって単調である普遍モデルを構築し、すべての単調集合関数を近似することができることを示す。
- 参考スコア(独自算出の注目度): 30.064497768159068
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Motivated by applications for set containment problems, we consider the following fundamental problem: can we design set-to-vector functions so that the natural partial order on sets is preserved, namely $S\subseteq T \text{ if and only if } F(S)\leq F(T) $. We call functions satisfying this property Monotone and Separating (MAS) set functions. % We establish lower and upper bounds for the vector dimension necessary to obtain MAS functions, as a function of the cardinality of the multisets and the underlying ground set. In the important case of an infinite ground set, we show that MAS functions do not exist, but provide a model called our which provably enjoys a relaxed MAS property we name "weakly MAS" and is stable in the sense of Holder continuity. We also show that MAS functions can be used to construct universal models that are monotone by construction and can approximate all monotone set functions. Experimentally, we consider a variety of set containment tasks. The experiments show the benefit of using our our model, in comparison with standard set models which do not incorporate set containment as an inductive bias. Our code is available in https://github.com/yonatansverdlov/Monotone-Embedding.
- Abstract(参考訳): 集合を包含する問題に対する応用によって動機づけられ、集合上の自然な部分順序が保存されるように集合からベクトルへの関数を設計できる:=S\subseteq T \text{ if and only if } F(S)\leq F(T) $。
この特性を満たす関数をMonotone and Separating (MAS) セット関数と呼びます。
% 多重集合と基底基底集合の濃度の関数として、MAS関数を得るために必要なベクトル次元について、下界と上界を確立する。
無限基底集合の重要な場合、MAS関数は存在しないが、「弱MAS」と呼ぶ緩和MAS特性を確実に享受し、ホールダー連続性という意味で安定なモデルを提供する。
また、MAS関数は、構成によって単調である普遍モデルを構築し、すべての単調集合関数を近似することができることを示す。
実験では,様々な集合格納タスクについて検討する。
本実験は, 帰納的バイアスとして集合包含を含まない標準集合モデルと比較して, 我々のモデルを使用する利点を示す。
私たちのコードはhttps://github.com/yonatansverdlov/Monotone-Embedding.comで利用可能です。
関連論文リスト
- On the (Non) Injectivity of Piecewise Linear Janossy Pooling [3.396731589928944]
我々は、最も人気のある多重集合モデルの多くを含む k-ary Janossy pooling の族を考え、一意的に線形な Janossy pooling 関数が射出できないことを証明している。
正の面では、多重度のない多重集合に制限された場合、単純な深部集合モデルでさえ射影率と双リプシッツ性に十分であることを示す。
論文 参考訳(メタデータ) (2025-05-26T15:53:09Z) - Universal Representation of Permutation-Invariant Functions on Vectors
and Tensors [11.345796608258434]
我々の研究の主な対象は、様々な大きさの入力に対する多元関数、すなわち置換不変関数である。
citezaheer 2017deepによって提案されたDeep Setsは、和分解可能なモデルを通じてスカラー上の連続的多重集合関数の指数表現を提供する。
普遍表現は連続かつ不連続な多重集合函数に対して保証されるが、潜在空間次元は$O(ND)$である。
論文 参考訳(メタデータ) (2023-10-20T22:00:59Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection [50.14730810124592]
サブモジュール関数と変種は、多様性とカバレッジを特徴付ける能力を通じて、データ選択と要約のための重要なツールとして登場した。
本稿では,モノトーンおよび非モノトーン部分モジュラー関数のためのフレキシブルニューラルネットワークであるFLEXSUBNETを提案する。
論文 参考訳(メタデータ) (2022-10-20T06:00:45Z) - Pairwise independent correlation gap [2.0979696058875446]
我々は、n$元上で定義される任意の非負の単調部分モジュラー集合関数に対して、この比は4/3$で上界となることを示す。
これは、相互独立を保ち、相互独立と相互独立の根本的な違いを示す「相関ギャップの境界」とは異なる。
論文 参考訳(メタデータ) (2022-09-18T13:11:44Z) - Using Partial Monotonicity in Submodular Maximization [13.23676270963484]
多くの標準部分モジュラーアルゴリズムに対して、単調性比に依存する新しい近似保証を証明できることが示される。
これにより、映画レコメンデーション、二次プログラミング、画像要約の一般的な機械学習応用に対する近似比が向上する。
論文 参考訳(メタデータ) (2022-02-07T10:35:40Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - From Sets to Multisets: Provable Variational Inference for Probabilistic
Integer Submodular Models [82.95892656532696]
サブモジュール関数は機械学習やデータマイニングにおいて広く研究されている。
本研究では,整数部分モジュラ函数に対する連続DR-部分モジュラ拡張を提案する。
整数部分モジュラー関数によって定義される新しい確率モデルを定式化する。
論文 参考訳(メタデータ) (2020-06-01T22:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。