論文の概要: HAPEns: Hardware-Aware Post-Hoc Ensembling for Tabular Data
- arxiv url: http://arxiv.org/abs/2603.10582v1
- Date: Wed, 11 Mar 2026 09:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.878828
- Title: HAPEns: Hardware-Aware Post-Hoc Ensembling for Tabular Data
- Title(参考訳): HAPEns: タブラルデータのためのハードウェア対応ポストホック組立
- Authors: Jannis Maier, Lennart Purucker,
- Abstract要約: 本稿では,ハードウェア効率と精度のバランスをとるポストホックアンサンブル法であるHAPEnsを紹介する。
HAPEnsはベースラインを著しく上回り、アンサンブルのパフォーマンスとデプロイメントコストに優れたトレードオフを見出した。
また,静的な多目的重み付け方式により,グリージーアンサンブルアルゴリズムさえも大幅に改善可能であることを示す。
- 参考スコア(独自算出の注目度): 5.039849340960836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensembling is commonly used in machine learning on tabular data to boost predictive performance and robustness, but larger ensembles often lead to increased hardware demand. We introduce HAPEns, a post-hoc ensembling method that explicitly balances accuracy against hardware efficiency. Inspired by multi-objective and quality diversity optimization, HAPEns constructs a diverse set of ensembles along the Pareto front of predictive performance and resource usage. Existing hardware-aware post-hoc ensembling baselines are not available, highlighting the novelty of our approach. Experiments on 83 tabular classification datasets show that HAPEns significantly outperforms baselines, finding superior trade-offs for ensemble performance and deployment cost. Ablation studies also reveal that memory usage is a particularly effective objective metric. Further, we show that even a greedy ensembling algorithm can be significantly improved in this task with a static multi-objective weighting scheme.
- Abstract(参考訳): 組み立ては、予測性能と堅牢性を高めるために表データの機械学習で一般的に使用されるが、より大きなアンサンブルはハードウェアの需要を増大させる。
本稿では,ハードウェアの効率と正確性を明確にバランスさせるポストホックアンサンブル手法であるHAPEnsを紹介する。
マルチオブジェクトと品質の多様性の最適化にインスパイアされたHAPEnsは、予測パフォーマンスとリソース利用のParetoフロントに沿って、多様なアンサンブルセットを構築している。
既存のハードウェア対応のポストホックアンサンブルベースラインは利用できない。
83の表付き分類データセットの実験では、HAPEnsはベースラインを著しく上回り、アンサンブルのパフォーマンスとデプロイメントコストに優れたトレードオフを見出した。
アブレーション研究は、メモリ使用量が特に効果的な客観的指標であることも明らかにした。
さらに, 静的な多目的重み付け方式により, グリージーアンサンブルアルゴリズムでも大幅に改善可能であることを示す。
関連論文リスト
- RooflineBench: A Benchmarking Framework for On-Device LLMs via Roofline Analysis [53.90240071275054]
SLM(Small Language Models)によるローカライズドインテリジェンスへの移行により、リソース制約のあるエッジハードウェア上での厳密なパフォーマンス評価の必要性が高まっている。
運用強度レンズ(OI)によるアーキテクチャプリミティブとハードウェア制約を統一する体系的フレームワークを提案する。
推論-ポテンシャル領域を定義することにより、同一ハードウェア基板上のLarge Language Models(LLM)の効率差を比較するための新しい指標として、相対推論ポテンシャルを導入する。
論文 参考訳(メタデータ) (2026-02-12T03:02:22Z) - Explicit Multi-head Attention for Inter-head Interaction in Large Language Models [70.96854312026319]
マルチヘッド明示的注意(Multi-head Explicit Attention、MEA)は、頭間相互作用を明示的にモデル化した、単純で効果的な注意法である。
MEAは事前トレーニングにおいて強い堅牢性を示し、より高速な収束につながる学習率を使用することを可能にします。
これにより、KVキャッシュメモリ使用率を50%削減できる実用的なキー値キャッシュ圧縮戦略が実現される。
論文 参考訳(メタデータ) (2026-01-27T13:45:03Z) - ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Enriching Tabular Data with Contextual LLM Embeddings: A Comprehensive Ablation Study for Ensemble Classifiers [20.46918103875102]
本研究では,大規模言語モデルの埋め込みから派生した特徴を持つデータセットを豊かにするための体系的アプローチを提案する。
我々はRoBERTaとGPT-2の埋め込みがランダムフォレスト、XGBoost、CatBoostなどのアンサンブル分類器に与える影響を評価する。
その結果,埋め込みと従来の数値的特徴とカテゴリー的特徴を統合することで,予測性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-11-03T17:45:00Z) - Hardware Aware Ensemble Selection for Balancing Predictive Accuracy and Cost [0.6486052012623046]
ハードウェア対応のアンサンブル選択手法を導入し,推論時間をポストホックアンサンブルに統合する。
提案手法は,既存のアンサンブル選択フレームワークと品質多様性最適化を利用して,その予測精度とハードウェア効率について,アンサンブル候補の評価を行う。
83の分類データセットを用いて評価したところ,本手法は競争精度を保ち,アンサンブルの操作効率を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-08-05T07:30:18Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Mean Embeddings with Test-Time Data Augmentation for Ensembling of
Representations [8.336315962271396]
表現のアンサンブルを考察し、MeTTA(Test-time augmentation)を用いた平均埋め込みを提案する。
MeTTAは、教師付きモデルと自己教師付きモデルの両方において、ImageNetの線形評価の質を大幅に向上させる。
我々は、より高品質な表現を推論するためにアンサンブルの成功を広めることが、多くの新しいアンサンブルアプリケーションを開く重要なステップであると信じている。
論文 参考訳(メタデータ) (2021-06-15T10:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。