論文の概要: Block Model Guided Unsupervised Feature Selection
- arxiv url: http://arxiv.org/abs/2007.02376v1
- Date: Sun, 5 Jul 2020 16:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 07:55:51.442789
- Title: Block Model Guided Unsupervised Feature Selection
- Title(参考訳): ブロックモデル誘導型教師なし特徴選択
- Authors: Zilong Bai, Hoa Nguyen, Ian Davidson
- Abstract要約: リンクデータに対するグラフ駆動型教師なし特徴選択のための新しい手法を提案する。
まず、グラフ上にブロックモデルを構築し、次に特徴選択にブロックモデルを使用するという、新しいアプローチを取ります。
実験結果から,本手法は実世界の複数の公開データセット上での最先端の手法であることがわかった。
- 参考スコア(独自算出の注目度): 32.21728295212875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is a core area of data mining with a recent innovation of
graph-driven unsupervised feature selection for linked data. In this setting we
have a dataset $\mathbf{Y}$ consisting of $n$ instances each with $m$ features
and a corresponding $n$ node graph (whose adjacency matrix is $\mathbf{A}$)
with an edge indicating that the two instances are similar. Existing efforts
for unsupervised feature selection on attributed networks have explored either
directly regenerating the links by solving for $f$ such that
$f(\mathbf{y}_i,\mathbf{y}_j) \approx \mathbf{A}_{i,j}$ or finding community
structure in $\mathbf{A}$ and using the features in $\mathbf{Y}$ to predict
these communities. However, graph-driven unsupervised feature selection remains
an understudied area with respect to exploring more complex guidance. Here we
take the novel approach of first building a block model on the graph and then
using the block model for feature selection. That is, we discover
$\mathbf{F}\mathbf{M}\mathbf{F}^T \approx \mathbf{A}$ and then find a subset of
features $\mathcal{S}$ that induces another graph to preserve both $\mathbf{F}$
and $\mathbf{M}$. We call our approach Block Model Guided Unsupervised Feature
Selection (BMGUFS). Experimental results show that our method outperforms the
state of the art on several real-world public datasets in finding high-quality
features for clustering.
- Abstract(参考訳): 特徴選択はデータマイニングのコア領域であり、グラフ駆動型非教師なし特徴選択の最近のイノベーションである。
この設定では、$m$フィーチャを持つ$n$インスタンスからなるデータセット$\mathbf{y}$と、対応する$n$ノードグラフ(それらの隣接マトリックスは$\mathbf{a}$)があり、2つのインスタンスが類似していることを示すエッジがあります。
属性付きネットワーク上で教師なしの機能選択を行う既存の取り組みは、$f$ の解法で直接リンクを再生成するか、$f(\mathbf{y}_i,\mathbf{y}_j) \approx \mathbf{a}_{i,j}$ でコミュニティ構造を見つけるか、$\mathbf{a}$ でコミュニティ構造を見つけるか、$\mathbf{y}$ の機能を使ってこれらのコミュニティを予測するかのどちらかである。
しかし、グラフ駆動の教師なしの機能選択は、より複雑なガイダンスを探求するための未熟な領域である。
ここでは、まずグラフ上にブロックモデルを構築し、次に特徴選択にブロックモデルを使用するという新しいアプローチをとる。
つまり、$\mathbf{F}\mathbf{M}\mathbf{F}^T \approx \mathbf{A}$ を発見し、次に $\mathcal{S}$ という機能のサブセットを見つけ、 $\mathbf{F}$ と $\mathbf{M}$ の両方を保存するために別のグラフを誘導する。
我々はアプローチブロックモデル誘導型非教師なし特徴選択(bmgufs)と呼ぶ。
実験結果から,本手法は,クラスタリングにおける高品質な特徴の探索において,複数の実世界の公開データセット上での最先端の手法であることがわかった。
関連論文リスト
- Guarantees for Nonlinear Representation Learning: Non-identical Covariates, Dependent Data, Fewer Samples [24.45016514352055]
我々は、関数クラス$mathcal F times Mathcal G$から、T+1$関数$f_star(t) circ g_star$を学習する際のサンプル複雑度について研究する。
タスク数が$T$になるにつれて、サンプル要件とリスクバウンドの両方が$r$次元回帰に収束することを示す。
論文 参考訳(メタデータ) (2024-10-15T03:20:19Z) - Online Learning of Halfspaces with Massart Noise [47.71073318490341]
我々はMassartノイズの存在下でのオンライン学習の課題について検討する。
計算効率のよいアルゴリズムで, 誤り境界が$eta T + o(T)$であることを示す。
我々はMassartオンライン学習者を用いて、任意のラウンドでランダムなアクションを選択するよりも、少なくとも$(1-1/k) Delta T - o(T)$の報酬を得られる効率的なバンディットアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-05-21T17:31:10Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - SQ Lower Bounds for Learning Mixtures of Linear Classifiers [43.63696593768504]
この問題に対する既知のアルゴリズムは、一様混合の特別な場合であっても、本質的には最善であることを示す。
重要な技術的要素は、独立した関心を持つかもしれない球面設計の新たな構築である。
論文 参考訳(メタデータ) (2023-10-18T10:56:57Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Overparametrized linear dimensionality reductions: From projection
pursuit to two-layer neural networks [10.368585938419619]
$mathbbRd$に$n$のデータポイントのクラウドが与えられると、$mathbbRd$の$m$次元部分空間へのすべての射影を考える。
この確率分布の集まりは、$n,d$が大きくなるとどのように見えるか?
この極限の低次元射影として生じる $mathbbRm$ の確率分布の集合の α$ を $mathscrF_m で表すと、$mathscrF_ に新たな内界と外界を確立する。
論文 参考訳(メタデータ) (2022-06-14T00:07:33Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - Model Selection with Near Optimal Rates for Reinforcement Learning with
General Model Classes [27.361399036211694]
有限地平線エピソディック強化学習(RL)問題に対するモデル選択の問題に対処する。
モデル選択フレームワークでは、$mathcalP*$の代わりに、遷移カーネルのネストされたファミリーが$M$を与えられる。
textttARL-GENが$TildemathcalO(d_mathcalE* H2+sqrtd_mathcalE* mathbbM* H2T)$の後悔を得ることを示す。
論文 参考訳(メタデータ) (2021-07-13T05:00:38Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - High-Dimensional Feature Selection for Genomic Datasets [3.9499155245102275]
機械学習とパターン認識における中心的な問題は、最も重要な特徴を認識するプロセスである。
本稿では,まず無関係な特徴を除去し,残った特徴間の相関を検知する特徴選択法(T)を提案する。
DRPTの有効性は、10個の遺伝的データセットに対して、7つの最先端特徴選択法との比較によって検証されている。
論文 参考訳(メタデータ) (2020-02-27T14:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。