論文の概要: RFX-Fuse: Breiman and Cutler's Unified ML Engine + Native Explainable Similarity
- arxiv url: http://arxiv.org/abs/2603.13234v1
- Date: Tue, 27 Jan 2026 16:41:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.213176
- Title: RFX-Fuse: Breiman and Cutler's Unified ML Engine + Native Explainable Similarity
- Title(参考訳): RFX-Fuse: BreimanとCutlerのUnified ML Engine + Native Explainable similarity
- Authors: Chris Kuchar,
- Abstract要約: RFX-Fuseは、ネイティブGPU/CPUをサポートするBreimanとCutlerの完全なビジョンを提供する。
RFX-Fuseは1から2のモデルオブジェクトの代替を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breiman and Cutler's original Random Forest was designed as a unified ML engine -- not merely an ensemble predictor. Their implementation included classification, regression, unsupervised learning, proximity-based similarity, outlier detection, missing value imputation, and visualization -- capabilities that modern libraries like scikit-learn never implemented. RFX-Fuse (Random Forests X [X=compression] -- Forest Unified Learning and Similarity Engine) delivers Breiman and Cutler's complete vision with native GPU/CPU support. Modern ML pipelines require 5+ separate tools -- XGBoost for prediction, FAISS for similarity, SHAP for explanations, Isolation Forest for outliers, custom code for importance. RFX-Fuse provides a 1 to 2 model object alternative -- a single set of trees grown once. Novel Contributions: (1) Proximity Importance -- native explainable similarity: proximity measures that samples are similar; proximity importance explains why. (2) Dataset-specific imputation validation for general tabular data -- ranking imputation methods by how real the imputed data looks, without ground truth labels.
- Abstract(参考訳): ブレイマンとカトラーのオリジナルのランダムフォレストは、単にアンサンブル予測器ではなく、統合MLエンジンとして設計された。
それらの実装には、分類、回帰、教師なし学習、近接ベースの類似性、外れ値の検出、値の計算の欠如、可視化などが含まれていた。
RFX-Fuse (Random Forests X [X=compression] -- Forest Unified Learning and similarity Engine)は、Breiman氏とCutler氏のネイティブGPU/CPUサポートによる完全なビジョンを提供する。現代のMLパイプラインには5つ以上のツール -- 予測のためのXGBoost、類似性のためのFAISS、説明のためのSHAP、外れ値のための分離フォレスト、重要なカスタムコードが必要です。
RFX-Fuse は 1 から 2 つのモデルオブジェクトの代替 -- 一度成長した1 つのツリーのセット -- を提供する。新しいコントリビューション: (1) 近さの重要さ -- ネイティブな説明可能な類似性: サンプルが類似する近接測定値; 近接重要度は理由を説明する。
2) 一般的な表形式のデータに対するデータセット固有の計算結果の検証 -- インプットされたデータの実際の見え方による計算結果のランク付け -- は、真理ラベルを使わずに。
関連論文リスト
- Enhance and Reuse: A Dual-Mechanism Approach to Boost Deep Forest for Label Distribution Learning [20.315448331938757]
ラベル分布学習では,各サンプルとラベル間の相関関係の程度を学習者が予測する必要がある。
Deep Forest (DF) は木のアンサンブルに基づくディープラーニングフレームワークであり、トレーニングフェーズはバックプロパゲーションに依存しない。
ERDF (Enhanced and Reused Feature Deep Forest) という手法を提案する。
論文 参考訳(メタデータ) (2026-02-06T03:30:45Z) - RFX: High-Performance Random Forests with GPU Acceleration and QLORA Compression [0.0]
RFX (Random Forests X) は、X が圧縮または量子化の略であり、Python で Breiman と Cutler の Random Forest 分類方法論のプロダクション対応の実装を提供する。
RFX v1.0は完全な分類を提供する:out-of-bagエラー推定、総合的および局所的重要度測定、QLORA圧縮による近接行列、ケースワイズ分析、インタラクティブ可視化(rfviz)。
回帰、教師なし学習、CLIQUEの重要性、RF-GAP近接はv2.0で計画されている。
論文 参考訳(メタデータ) (2025-11-23T12:00:33Z) - Nearest-Class Mean and Logits Agreement for Wildlife Open-Set Recognition [4.13115026589334]
Open-set Recognition (OSR) は、未知のサンプルを拒絶しながら、既知のクラスを分類することを目的としている。
本研究は,モデルの特徴と予測ロジットとの一致を計測する後処理OSR法に寄与する。
我々はアフリカやスウェーデンの動物に対して93.41と95.35のAUROCを達成した。
論文 参考訳(メタデータ) (2025-10-20T09:32:08Z) - AxBench: Steering LLMs? Even Simple Baselines Outperform Sparse Autoencoders [73.37603699731329]
ステアリングと概念検出のための大規模ベンチマークであるAxBenchを紹介する。
ステアリングでは、すべての既存のメソッドを高速に処理し、次いで微調整する。
概念検出では、差分のような表現に基づく手法が最善を尽くす。
論文 参考訳(メタデータ) (2025-01-28T18:51:24Z) - From Fake to Real: Pretraining on Balanced Synthetic Images to Prevent Spurious Correlations in Image Recognition [64.59093444558549]
我々はFrom Fake to Realと呼ぶシンプルで簡単に実装できる2段階のトレーニングパイプラインを提案する。
実データと合成データを別々にトレーニングすることで、FFRは実データと合成データの統計的差異にモデルを公開しない。
実験の結果,FFRは3つのデータセットに対して,最先端のグループ精度を最大20%向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-08T19:52:28Z) - SPRINT: A Unified Toolkit for Evaluating and Demystifying Zero-shot
Neural Sparse Retrieval [92.27387459751309]
ニューラルスパース検索を評価するための統一PythonツールキットであるSPRINTを提供する。
我々は、よく認識されているベンチマークBEIRにおいて、強く再現可能なゼロショットスパース検索ベースラインを確立する。
SPLADEv2は、元のクエリとドキュメントの外で、ほとんどのトークンでスパース表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T22:48:02Z) - An Approximation Method for Fitted Random Forests [0.0]
本研究では,葉にデータポイントを割り当てたランダムフォレストモデルを用いて,各木を近似する手法について検討した。
具体的には,多項ロジスティック回帰の適合が予測品質を保ちながらサイズを減少させるかどうかを考察することから始める。
論文 参考訳(メタデータ) (2022-07-05T17:28:52Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Explaining random forest prediction through diverse rulesets [0.0]
Local Tree eXtractor (LTreeX)は、与えられたテストインスタンスのフォレスト予測を、いくつかの異なるルールで説明することができる。
提案手法は予測性能の点で他の説明可能な手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。