論文の概要: Non-exchangeable feature allocation models with sublinear growth of the
feature sizes
- arxiv url: http://arxiv.org/abs/2003.13491v1
- Date: Mon, 30 Mar 2020 14:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:51:13.418282
- Title: Non-exchangeable feature allocation models with sublinear growth of the
feature sizes
- Title(参考訳): 特徴サイズのサブリニア成長を伴う非交換可能特徴割当モデル
- Authors: Giuseppe Di Benedetto, Fran\c{c}ois Caron, Yee Whye Teh
- Abstract要約: 指定された特徴を共有するオブジェクトの数がサブライン的に増加するような、交換不能な特徴割り当てモデルのクラスを示す。
我々はモデルの性質を導出し、そのようなモデルが様々なデータセットに対してより適合し、より良い予測性能を提供することを示す。
- 参考スコア(独自算出の注目度): 38.020001748199036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature allocation models are popular models used in different applications
such as unsupervised learning or network modeling. In particular, the Indian
buffet process is a flexible and simple one-parameter feature allocation model
where the number of features grows unboundedly with the number of objects. The
Indian buffet process, like most feature allocation models, satisfies a
symmetry property of exchangeability: the distribution is invariant under
permutation of the objects. While this property is desirable in some cases, it
has some strong implications. Importantly, the number of objects sharing a
particular feature grows linearly with the number of objects. In this article,
we describe a class of non-exchangeable feature allocation models where the
number of objects sharing a given feature grows sublinearly, where the rate can
be controlled by a tuning parameter. We derive the asymptotic properties of the
model, and show that such model provides a better fit and better predictive
performances on various datasets.
- Abstract(参考訳): 特徴割り当てモデルは、教師なし学習やネットワークモデリングなど、異なるアプリケーションで使われる一般的なモデルである。
特に、インドのビュッフェプロセスは柔軟で単純な1パラメータの特徴割り当てモデルであり、特徴の数はオブジェクトの数と無拘束に増加する。
インドのビュッフェ過程は、ほとんどの機能割当モデルと同様に、交換可能性の対称性特性を満たす: 分布は、オブジェクトの置換の下で不変である。
この性質はいくつかのケースでは望ましいが、強い意味を持つ。
重要なことに、特定の機能を共有するオブジェクトの数は、オブジェクトの数と線形に増加する。
本稿では,ある特徴を共有するオブジェクトの数がサブライン的に増加し,調整パラメータによって速度を制御できるような,交換不能な特徴割り当てモデルのクラスについて述べる。
モデルの漸近特性を導出し、そのモデルが様々なデータセットに適合し、より良い予測性能を提供することを示す。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Partial-Multivariate Model for Forecasting [28.120094495344453]
本稿では,問題予測のためのトランスフォーマーに基づく部分多変量モデルPMformerを提案する。
PMformerは様々な単変量モデルと完全多変量モデルより優れていることを示す。
また、PMformerの他の利点として、機能不足による効率性と堅牢性を強調します。
論文 参考訳(メタデータ) (2024-08-19T05:18:50Z) - Continuous Language Model Interpolation for Dynamic and Controllable Text Generation [7.535219325248997]
私たちは、モデルが多様な、そしてしばしば変化する、ユーザの好みに動的に適応しなければならない、困難なケースに注目します。
線形重みに基づく適応手法を活用し、連続的なマルチドメイン補間子としてキャストする。
重みの変化がモデル出力の予測可能かつ一貫した変化をもたらすことを示す。
論文 参考訳(メタデータ) (2024-04-10T15:55:07Z) - Binary Feature Mask Optimization for Feature Selection [0.0]
本稿では,モデルの予測を考慮した特徴選択を行う新しいフレームワークを提案する。
我々のフレームワークは、選択過程における特徴を排除するために、新しい特徴マスキングアプローチを用いて革新する。
機械学習モデルとしてLightGBMとMulti-Layer Perceptronを用いた実生活データセットの性能改善を示す。
論文 参考訳(メタデータ) (2024-01-23T10:54:13Z) - A Probabilistic Model for Data Redundancy in the Feature Domain [0.0]
確率モデルを用いて、大規模データセットにおける非相関な特徴の数を推定する。
我々のモデルは、複数の特徴の相互依存性(多重性)と相互関係(多重性)の両方を可能にする。
我々は、互いに有意な制約付き集合に関する補助的な結果を証明する。
論文 参考訳(メタデータ) (2023-09-24T14:51:53Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Top-$k$ Regularization for Supervised Feature Selection [11.927046591097623]
教師付き特徴選択のための新しい,シンプルで効果的な正規化手法である Top-k$ regularization を導入する。
上位$kの正規化は、教師付き特徴選択に有効で安定であることを示す。
論文 参考訳(メタデータ) (2021-06-04T01:12:47Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。