論文の概要: Non-exchangeable feature allocation models with sublinear growth of the
feature sizes
- arxiv url: http://arxiv.org/abs/2003.13491v1
- Date: Mon, 30 Mar 2020 14:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:51:13.418282
- Title: Non-exchangeable feature allocation models with sublinear growth of the
feature sizes
- Title(参考訳): 特徴サイズのサブリニア成長を伴う非交換可能特徴割当モデル
- Authors: Giuseppe Di Benedetto, Fran\c{c}ois Caron, Yee Whye Teh
- Abstract要約: 指定された特徴を共有するオブジェクトの数がサブライン的に増加するような、交換不能な特徴割り当てモデルのクラスを示す。
我々はモデルの性質を導出し、そのようなモデルが様々なデータセットに対してより適合し、より良い予測性能を提供することを示す。
- 参考スコア(独自算出の注目度): 38.020001748199036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature allocation models are popular models used in different applications
such as unsupervised learning or network modeling. In particular, the Indian
buffet process is a flexible and simple one-parameter feature allocation model
where the number of features grows unboundedly with the number of objects. The
Indian buffet process, like most feature allocation models, satisfies a
symmetry property of exchangeability: the distribution is invariant under
permutation of the objects. While this property is desirable in some cases, it
has some strong implications. Importantly, the number of objects sharing a
particular feature grows linearly with the number of objects. In this article,
we describe a class of non-exchangeable feature allocation models where the
number of objects sharing a given feature grows sublinearly, where the rate can
be controlled by a tuning parameter. We derive the asymptotic properties of the
model, and show that such model provides a better fit and better predictive
performances on various datasets.
- Abstract(参考訳): 特徴割り当てモデルは、教師なし学習やネットワークモデリングなど、異なるアプリケーションで使われる一般的なモデルである。
特に、インドのビュッフェプロセスは柔軟で単純な1パラメータの特徴割り当てモデルであり、特徴の数はオブジェクトの数と無拘束に増加する。
インドのビュッフェ過程は、ほとんどの機能割当モデルと同様に、交換可能性の対称性特性を満たす: 分布は、オブジェクトの置換の下で不変である。
この性質はいくつかのケースでは望ましいが、強い意味を持つ。
重要なことに、特定の機能を共有するオブジェクトの数は、オブジェクトの数と線形に増加する。
本稿では,ある特徴を共有するオブジェクトの数がサブライン的に増加し,調整パラメータによって速度を制御できるような,交換不能な特徴割り当てモデルのクラスについて述べる。
モデルの漸近特性を導出し、そのモデルが様々なデータセットに適合し、より良い予測性能を提供することを示す。
関連論文リスト
- Binary Feature Mask Optimization for Feature Selection [0.0]
本稿では,モデルの予測を考慮した特徴選択を行う新しいフレームワークを提案する。
我々のフレームワークは、選択過程における特徴を排除するために、新しい特徴マスキングアプローチを用いて革新する。
機械学習モデルとしてLightGBMとMulti-Layer Perceptronを用いた実生活データセットの性能改善を示す。
論文 参考訳(メタデータ) (2024-01-23T10:54:13Z) - Towards Category Unification of 3D Single Object Tracking on Point
Clouds [11.281200884073812]
カテゴリー特化モデルは、シームズや動き中心のパラダイムに関わらず、3次元単体追跡(SOT)において非常に価値のある手法である。
本稿ではまず,共有モデルパラメータを持つ単一ネットワークを用いて,すべてのカテゴリにまたがるオブジェクトを同時に追跡できる統一モデルを提案する。
論文 参考訳(メタデータ) (2024-01-20T10:38:28Z) - A Probabilistic Model for Data Redundancy in the Feature Domain [0.0]
確率モデルを用いて、大規模データセットにおける非相関な特徴の数を推定する。
我々のモデルは、複数の特徴の相互依存性(多重性)と相互関係(多重性)の両方を可能にする。
我々は、互いに有意な制約付き集合に関する補助的な結果を証明する。
論文 参考訳(メタデータ) (2023-09-24T14:51:53Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Feature Selection using e-values [4.3512163406552]
教師付きパラメトリックモデルの文脈でe値の概念を導入する。
一般的な条件下では、e-値の階数順序は、すべての本質的特徴を含むモデルと、そうでないものとを分離する。
データ深度と高速再サンプリングに基づくアルゴリズムを用いて,e値を用いた特徴選択手法を実装した。
論文 参考訳(メタデータ) (2022-06-11T01:34:29Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Top-$k$ Regularization for Supervised Feature Selection [11.927046591097623]
教師付き特徴選択のための新しい,シンプルで効果的な正規化手法である Top-k$ regularization を導入する。
上位$kの正規化は、教師付き特徴選択に有効で安定であることを示す。
論文 参考訳(メタデータ) (2021-06-04T01:12:47Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。