論文の概要: Latenrgy: Model Agnostic Latency and Energy Consumption Prediction for Binary Classifiers
- arxiv url: http://arxiv.org/abs/2412.19241v1
- Date: Thu, 26 Dec 2024 14:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:36.182905
- Title: Latenrgy: Model Agnostic Latency and Energy Consumption Prediction for Binary Classifiers
- Title(参考訳): 遅延:二項分類器のモデル非依存レイテンシとエネルギー消費予測
- Authors: Jason M. Pittman,
- Abstract要約: 機械学習システムは、科学分野や産業のイノベーションをますます加速させる。
しかし、特に推論の間、計算オーバーヘッドにおける課題はスケーラビリティと持続可能性を制限する。
この研究は、主に遅延とエネルギー消費に関する一般化予測技術が欠如していることから、文学における重要なギャップに対処する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning systems increasingly drive innovation across scientific fields and industry, yet challenges in compute overhead, specifically during inference, limit their scalability and sustainability. Responsible AI guardrails, essential for ensuring fairness, transparency, and privacy, further exacerbate these computational demands. This study addresses critical gaps in the literature, chiefly the lack of generalized predictive techniques for latency and energy consumption, limited cross-comparisons of classifiers, and unquantified impacts of RAI guardrails on inference performance. Using Theory Construction Methodology, this work constructed a model-agnostic theoretical framework for predicting latency and energy consumption in binary classification models during inference. The framework synthesizes classifier characteristics, dataset properties, and RAI guardrails into a unified analytical instrument. Two predictive equations are derived that capture the interplay between these factors while offering generalizability across diverse classifiers. The proposed framework provides foundational insights for designing efficient, responsible ML systems. It enables researchers to benchmark and optimize inference performance and assists practitioners in deploying scalable solutions. Finally, this work establishes a theoretical foundation for balancing computational efficiency with ethical AI principles, paving the way for future empirical validation and broader applications.
- Abstract(参考訳): 機械学習システムは、科学分野や産業のイノベーションをますます加速させるが、特に推論の間、計算オーバーヘッドにおける課題は、スケーラビリティと持続可能性を制限することである。
公正性、透明性、プライバシを保証するために不可欠な、責任のあるAIガードレールは、これらの計算要求をさらに悪化させる。
本研究は,遅延とエネルギー消費に関する一般化予測手法の欠如,分類器の相互比較の制限,推論性能に対するRAIガードレールの非定量的影響など,文献における重要なギャップに対処する。
この研究は、理論構築法を用いて、推論中の二項分類モデルにおける遅延とエネルギー消費を予測するためのモデルに依存しない理論フレームワークを構築した。
このフレームワークは、分類器の特性、データセット特性、およびRAIガードレールを統一された分析機器に合成する。
2つの予測方程式が導出され、これらの因子間の相互作用を捉えながら、様々な分類器にまたがる一般化性を提供する。
提案するフレームワークは、効率的で責任のあるMLシステムを設計するための基礎的な洞察を提供する。
研究者は推論のパフォーマンスをベンチマークし、最適化し、スケーラブルなソリューションをデプロイする実践者を支援することができる。
最後に、この研究は、計算効率と倫理的AI原則のバランスをとるための理論的基盤を確立し、将来の経験的検証とより広範な応用への道を開く。
関連論文リスト
- Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z) - Attention is Naturally Sparse with Gaussian Distributed Input [8.602260591839318]
本研究では,Large Language Models (LLMs) における注意点の空間性に関する厳密な理論的解析を行った。
我々の主な貢献は、空間が注意機構にどのように現れるかに関する詳細な理論的考察を提供することであり、計算貯蓄とモデルの有効性の間の潜在的なトレードオフに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-03T12:37:34Z) - Comprehensive Study Of Predictive Maintenance In Industries Using Classification Models And LSTM Model [0.0]
この研究は、SVM(Support Vector Machine)、ランダムフォレスト(Random Forest)、ロジスティック回帰(Logistic Regression)、畳み込みニューラルネットワークLSTMベース(Convolutional Neural Network LSTM-based)など、さまざまな機械学習分類手法を掘り下げて、マシンのパフォーマンスを予測し分析することを目的としている。
本研究の主な目的は、精度、精度、リコール、F1スコアなどの要因を考慮して、これらのアルゴリズムの性能を評価し、機械性能を予測・解析することである。
論文 参考訳(メタデータ) (2024-03-15T12:47:45Z) - Formal Logic Enabled Personalized Federated Learning Through Property
Inference [5.873100924187382]
本研究では,時間的論理的推論を利用してこの問題に対処する新たなトレーニングパラダイムを提案する。
本手法では,各FLクライアントに対して機械的に生成された論理式を組み込むことで,学習プロセスの強化を図る。
提案手法は,15州からのセンサデータからなる実世界の交通量予測タスクと,合成データを用いたスマートシティマルチタスク予測という2つのタスクで評価する。
論文 参考訳(メタデータ) (2024-01-15T03:25:37Z) - Towards a General Framework for Continual Learning with Pre-training [55.88910947643436]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Logic Constraints to Feature Importances [17.234442722611803]
AIモデルの"ブラックボックス"の性質は、診断技術や自律的ガイドなど、高度な分野における信頼性の高い応用の限界であることが多い。
近年の研究では、適切な解釈可能性のレベルが、モデル信頼性というより一般的な概念を強制できることが示されている。
本論文の基本的な考え方は,特定のタスクにおける特徴の重要性に関する人間の事前知識を利用して,モデルの適合のフェーズを整合的に支援することである。
論文 参考訳(メタデータ) (2021-10-13T09:28:38Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Introduction to Rare-Event Predictive Modeling for Inferential
Statisticians -- A Hands-On Application in the Prediction of Breakthrough
Patents [0.0]
本稿では,予測性能の最適化を目的とした定量的分析のための機械学習(ML)手法を提案する。
両フィールド間の潜在的な相乗効果について考察する。
我々は,コンピュータサイエンスの用語のデミスティフィケーションを目指して,定量的な社会科学の聴衆に手持ちの予測モデルの導入を行っている。
論文 参考訳(メタデータ) (2020-03-30T13:06:25Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。