論文の概要: Joint Hierarchical Representation Learning of Samples and Features via Informed Tree-Wasserstein Distance
- arxiv url: http://arxiv.org/abs/2501.03627v2
- Date: Thu, 22 May 2025 08:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 14:49:21.322938
- Title: Joint Hierarchical Representation Learning of Samples and Features via Informed Tree-Wasserstein Distance
- Title(参考訳): インフォームドツリー・ワッサースタイン距離を用いたサンプルと特徴の連立階層的表現学習
- Authors: Ya-Wei Eileen Lin, Ronald R. Coifman, Gal Mishne, Ronen Talmon,
- Abstract要約: 本稿では,Tree-Wasserstein Distance (TWD) を用いて,サンプルと特徴の階層的表現を学習するための教師なし手法を提案する。
本手法は2つのデータモードを交互に構成する。まず1つのモードのツリーを構築し、次にそのツリーに基づいて他のモードのTWDを計算し、最終的にTWDを用いて第2のモードのツリーを構築する。
本稿では,提案手法をハイパーボリックグラフ畳み込みネットワークに前処理として組み込むことができ,リンク予測やノード分類タスクの性能を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 12.2853783834605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional data often exhibit hierarchical structures in both modes: samples and features. Yet, most existing approaches for hierarchical representation learning consider only one mode at a time. In this work, we propose an unsupervised method for jointly learning hierarchical representations of samples and features via Tree-Wasserstein Distance (TWD). Our method alternates between the two data modes. It first constructs a tree for one mode, then computes a TWD for the other mode based on that tree, and finally uses the resulting TWD to build the second mode's tree. By repeatedly alternating through these steps, the method gradually refines both trees and the corresponding TWDs, capturing meaningful hierarchical representations of the data. We provide a theoretical analysis showing that our method converges. We show that our method can be integrated into hyperbolic graph convolutional networks as a pre-processing technique, improving performance in link prediction and node classification tasks. In addition, our method outperforms baselines in sparse approximation and unsupervised Wasserstein distance learning tasks on word-document and single-cell RNA-sequencing datasets.
- Abstract(参考訳): 高次元データは、しばしばサンプルと特徴の両方のモードで階層構造を示す。
しかし、階層的表現学習のための既存のアプローチのほとんどは、一度に1つのモードしか考慮していない。
本研究では,Tree-Wasserstein Distance (TWD) を用いて,サンプルと特徴の階層的表現を共同学習するための教師なし手法を提案する。
我々の方法は2つのデータモードを交互に行う。
最初は1つのモードのツリーを構築し、次にそのツリーに基づいて他のモードのTWDを計算し、最後に2番目のモードのツリーを構築する。
これらのステップを繰り返すことで、この手法は木と対応するTWDの両方を徐々に洗練し、データの意味的な階層的表現をキャプチャする。
提案手法が収束することを示す理論的解析を行う。
本稿では,提案手法をハイパーボリックグラフ畳み込みネットワークに前処理として組み込むことができ,リンク予測やノード分類タスクの性能を向上させることができることを示す。
さらに,本手法は,単語文書および単一セルRNA配列データセット上で,疎近似および教師なしワッサーシュタイン距離学習タスクにおいて,ベースラインよりも優れる。
関連論文リスト
- Fast unsupervised ground metric learning with tree-Wasserstein distance [14.235762519615175]
教師なしの地上距離学習アプローチが導入されました
木にサンプルや特徴を埋め込むことでWSV法を強化し,木-ワッサーシュタイン距離(TWD)を計算することを提案する。
我々は、このアルゴリズムが最もよく知られた方法よりも完全なWSVアプローチの近似に収束し、$mathcalO(n3)$複雑さを持つことを理論的かつ経験的に実証する。
論文 参考訳(メタデータ) (2024-11-11T23:21:01Z) - Revisiting Nearest Neighbor for Tabular Data: A Deep Tabular Baseline Two Decades Later [76.66498833720411]
K$-nearest neighbors (KNN) はもともと,インスタンス間のセマンティックな類似性を捉えるために線形投影を学習するために設計されたものだ。
意外なことに、SGDを用いたNAAの実装と次元減少のない実装は、表データの良好な性能をすでに達成しています。
本稿では、損失関数、予測戦略、深いアーキテクチャなど、これらの改善の背景にある要因を分析して、論文を締めくくる。
論文 参考訳(メタデータ) (2024-07-03T16:38:57Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Structural Optimization Makes Graph Classification Simpler and Better [5.770986723520119]
モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
論文 参考訳(メタデータ) (2021-09-05T08:54:38Z) - Visualizing hierarchies in scRNA-seq data using a density tree-biased
autoencoder [50.591267188664666]
本研究では,高次元scRNA-seqデータから意味のある木構造を同定する手法を提案する。
次に、低次元空間におけるデータのツリー構造を強調する木バイアスオートエンコーダDTAEを紹介する。
論文 参考訳(メタデータ) (2021-02-11T08:48:48Z) - Unsupervised Embedding of Hierarchical Structure in Euclidean Space [30.507049058838025]
我々は、集約アルゴリズムによって生成される階層的クラスタリングを改善する方法として、ユークリッド空間にデータの非線形埋め込みを学習することを検討する。
遅延空間埋め込みの再スケーリングはデンドログラムの純度とモーゼリー・ワングのコスト関数の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-30T03:57:09Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Oblique Predictive Clustering Trees [6.317966126631351]
予測クラスタリングツリー(PCT)は、構造化された出力予測を含む様々な予測モデリングタスクを解決するために使用できる。
本稿では,これらの制約に対処可能な斜めの予測クラスタリング木を提案する。
6つの予測モデルタスクのための60のベンチマークデータセットに対して提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2020-07-27T14:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。