論文の概要: Random Forest Autoencoders for Guided Representation Learning
- arxiv url: http://arxiv.org/abs/2502.13257v1
- Date: Tue, 18 Feb 2025 20:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:30.757369
- Title: Random Forest Autoencoders for Guided Representation Learning
- Title(参考訳): 誘導表現学習のためのランダムフォレストオートエンコーダ
- Authors: Adrien Aumon, Shuang Ni, Myriam Lizotte, Guy Wolf, Kevin R. Moon, Jake S. Rhodes,
- Abstract要約: 本稿では,サンプル外拡張のためのニューラルネットワークフレームワークRF-PHATEを紹介する。
RF-PHATEのカーネルベースの拡張は、RFPHATEの標準拡張を含む既存の方法よりも優れている。
RF-AEはカーネルの選択に対して堅牢であり、任意のカーネルベースの次元減少法に一般化する。
- 参考スコア(独自算出の注目度): 9.97014316910538
- License:
- Abstract: Decades of research have produced robust methods for unsupervised data visualization, yet supervised visualization$\unicode{x2013}$where expert labels guide representations$\unicode{x2013}$remains underexplored, as most supervised approaches prioritize classification over visualization. Recently, RF-PHATE, a diffusion-based manifold learning method leveraging random forests and information geometry, marked significant progress in supervised visualization. However, its lack of an explicit mapping function limits scalability and prevents application to unseen data, posing challenges for large datasets and label-scarce scenarios. To overcome these limitations, we introduce Random Forest Autoencoders (RF-AE), a neural network-based framework for out-of-sample kernel extension that combines the flexibility of autoencoders with the supervised learning strengths of random forests and the geometry captured by RF-PHATE. RF-AE enables efficient out-of-sample supervised visualization and outperforms existing methods, including RF-PHATE's standard kernel extension, in both accuracy and interpretability. Additionally, RF-AE is robust to the choice of hyper-parameters and generalizes to any kernel-based dimensionality reduction method.
- Abstract(参考訳): 長年の研究によって、教師なしのデータ視覚化のための堅牢な手法が生み出されてきたが、教師なしの可視化のためには、専門家ラベルがガイド表現として$\unicode{x2013}$remainsを探索し、ほとんどの教師付きアプローチが視覚化よりも分類を優先している。
近年,ランダムな森林と情報幾何学を利用した拡散型多様体学習法RF-PHATEが,教師あり可視化において顕著な進歩を遂げている。
しかし、明示的なマッピング機能が欠如していることはスケーラビリティを制限し、アプリケーションが目に見えないデータにアクセスできるのを防ぎ、大規模なデータセットやラベルスカースシナリオの課題を提起する。
これらの制限を克服するため、ランダムフォレストオートエンコーダ(RF-AE)を導入し、オートエンコーダの柔軟性とランダムフォレストによる教師付き学習強度と、RF-PHATEによってキャプチャされた幾何を組み合わせた、サンプル外カーネル拡張のためのニューラルネットワークベースのフレームワークを提案する。
RF-AEは、RF-PHATEの標準カーネル拡張を含む既存の手法を精度と解釈性の両方で、効率的なアウト・オブ・サンプレットの可視化と性能向上を可能にする。
さらに、RF-AEはハイパーパラメータの選択に頑健であり、任意のカーネルベースの次元減少法に一般化する。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Forward-Forward Learning achieves Highly Selective Latent Representations for Out-of-Distribution Detection in Fully Spiking Neural Networks [6.7236795813629]
生物学的システムにインスパイアされたスパイキングニューラルネットワーク(SNN)は、限界を克服するための有望な道を提供する。
本研究では,これらの課題に対処するために,スパイクフォワードフォワードアルゴリズム(FFA)の可能性を検討する。
本稿では,クラス分布からサンプルを遠ざける特徴を検出するための,新しい非勾配属性法を提案する。
論文 参考訳(メタデータ) (2024-07-19T08:08:17Z) - Enhancing Supervised Visualization through Autoencoder and Random Forest Proximities for Out-of-Sample Extension [10.56452144281148]
教師付き次元削減の価値は、データ特徴とラベルの間の意味のある関係を明らかにする能力にある。
一般的な次元減少法は固定された潜在点の集合を埋め込むが、目に見えないテスト集合に一般化することはできない。
本研究では,ランダム森林をベースとしたディメンタリティ低減手法RF-PHATEのアウト・オブ・サンプル拡張法を提案する。
論文 参考訳(メタデータ) (2024-06-06T18:06:50Z) - Fus-MAE: A cross-attention-based data fusion approach for Masked
Autoencoders in remote sensing [5.990692497580643]
Fus-MAEは、マスク付きオートエンコーダに基づく自己教師型学習フレームワークである。
実験により,Fus-MAEは,SAR-光データ融合に適したコントラスト学習戦略と効果的に競合できることが示された。
論文 参考訳(メタデータ) (2024-01-05T11:36:21Z) - S-Adapter: Generalizing Vision Transformer for Face Anti-Spoofing with Statistical Tokens [45.06704981913823]
Face Anti-Spoofing (FAS) は、スプーフされた顔を表示することによって、顔認識システムに侵入しようとする悪意のある試みを検出することを目的としている。
本稿では,局所的なトークンヒストグラムから局所的な識別や統計情報を収集する新しい統計適応器(S-Adapter)を提案する。
統計的トークンの一般化をさらに改善するために,新しいトークンスタイル正規化(TSR)を提案する。
提案したS-AdapterとTSRは、ゼロショットと少数ショットのクロスドメインテストの両方において、いくつかのベンチマークテストにおいて、最先端の手法よりも優れた、大きなメリットをもたらすことを示した。
論文 参考訳(メタデータ) (2023-09-07T22:36:22Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Disentangled Representation Learning for RF Fingerprint Extraction under
Unknown Channel Statistics [77.13542705329328]
本稿では,まず,不整合表現学習(DRL)の枠組みを提案し,入力信号を逆学習によりデバイス関連成分とデバイス関連成分に分解する。
提案フレームワークにおける暗黙的なデータ拡張は、デバイス非関連チャネル統計の過度な適合を避けるために、RFF抽出器に正規化を課す。
実験により、DR-RFFと呼ばれる提案手法は、未知の複雑な伝播環境に対する一般化可能性の観点から従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-04T15:46:48Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Random Partitioning Forest for Point-Wise and Collective Anomaly
Detection -- Application to Intrusion Detection [9.74672460306765]
DiFF-RFはランダムな分割二分木で構成されるアンサンブルアプローチであり、異常を検出する。
実験の結果,DiFF-RFはアイソレーション・フォレスト(IF)アルゴリズムをほぼ体系的に上回っていることがわかった。
我々の経験から,DiFF-RFは小規模な学習データの存在下では有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-29T10:44:08Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。