論文の概要: A Concise Function Representation for Faster Exact MPE and Constrained
Optimisation in Graphical Models
- arxiv url: http://arxiv.org/abs/2108.03899v1
- Date: Mon, 9 Aug 2021 09:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 23:20:58.023258
- Title: A Concise Function Representation for Faster Exact MPE and Constrained
Optimisation in Graphical Models
- Title(参考訳): 高速なMPEのための簡潔関数表現と図形モデルにおける制約付き最適化
- Authors: Filippo Bistaffa
- Abstract要約: バケット除去における決定論的有限状態オートマトンに基づく簡潔表現の活用法を示す。
FABE内での簡潔な表現を使用することで、実行時およびメモリ要求の観点からBEの性能を劇的に改善します。
- 参考スコア(独自算出の注目度): 2.756495551805069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel concise function representation for graphical models, a
central theoretical framework that provides the basis for many reasoning tasks.
We then show how we exploit our concise representation based on deterministic
finite state automata within Bucket Elimination (BE), a general approach based
on the concept of variable elimination that accommodates many inference and
optimisation tasks such as most probable explanation and constrained
optimisation. We denote our version of BE as FABE. By using our concise
representation within FABE, we dramatically improve the performance of BE in
terms of runtime and memory requirements. Results on standard benchmarks
obtained using an established experimental methodology show that FABE often
outperforms the best available approach (RBFAOO), leading to significant
runtime improvements (up to 2 orders of magnitude in our tests).
- Abstract(参考訳): 本稿では,多くの推論タスクの基盤を提供する中心的理論フレームワークであるグラフィカルモデルのための新しい簡潔関数表現を提案する。
次に、バケット除去(be)における決定論的有限状態オートマトンに基づく簡潔な表現をどのように活用するかを示す。これは変数除去の概念に基づく一般的なアプローチであり、最も可能性の高い説明や制約付き最適化のような多くの推論と最適化タスクを包含する。
BE のバージョンを FABE と表現します。
FABE内の簡潔な表現を使用することで、実行時およびメモリ要求の観点からBEの性能を劇的に改善します。
確立された実験手法を用いて得られた標準ベンチマークの結果、FABEは最も有効なアプローチ(RBFAOO)よりも優れており、実行時の大幅な改善(テストでは最大2桁まで)をもたらすことが示されている。
関連論文リスト
- DRPruning: Efficient Large Language Model Pruning through Distributionally Robust Optimization [61.492590008258986]
大きな言語モデル(LLM)は素晴らしい結果をもたらすが、モデルのサイズと計算コストの増加による課題に直面している。
本稿では,分散的にロバストな最適化を取り入れたDRPruningを提案する。
論文 参考訳(メタデータ) (2024-11-21T12:02:39Z) - Respecting the limit:Bayesian optimization with a bound on the optimal value [3.004066195320147]
我々は、最小値の正確な知識があるか、または、おそらくその値に対するより低いバウンドを持つかのシナリオについて研究する。
本稿では,有界情報を組み込んだ新たなサロゲートモデルであるSlogGPについて述べる。
論文 参考訳(メタデータ) (2024-11-07T14:27:49Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Submodular Framework for Structured-Sparse Optimal Transport [7.030105924295838]
非平衡最適輸送(UOT)は、非正規化対策の柔軟な枠組みとロバスト性により、近年注目を集めている。
本研究では,UOT設定における疎輸送計画の学習(構造化)について検討する。
本稿では,最近検討された平均誤差に基づく UOT を用いた新しい空間制約付き UOT の定式化を提案する。
論文 参考訳(メタデータ) (2024-06-07T13:11:04Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - FuzzyFlow: Leveraging Dataflow To Find and Squash Program Optimization
Bugs [92.47146416628965]
FuzzyFlowはプログラム最適化をテストするために設計されたフォールトローカライゼーションとテストケース抽出フレームワークである。
我々は、データフロープログラム表現を活用して、完全に再現可能なシステム状態と最適化のエリア・オブ・エフェクトをキャプチャする。
テスト時間を削減するため,テスト入力を最小限に抑えるアルゴリズムを設計し,再計算のためのメモリ交換を行う。
論文 参考訳(メタデータ) (2023-06-28T13:00:17Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - DQ-BART: Efficient Sequence-to-Sequence Model via Joint Distillation and
Quantization [75.72231742114951]
BARTやT5のような大規模事前学習シーケンス・ツー・シーケンスモデルは、多くの生成NLPタスクで最先端のパフォーマンスを達成する。
これらのモデルは、大きなメモリ要件と高いレイテンシのため、リソース制約のあるシナリオにおいて大きな課題となる。
そこで,本論文では,教師モデルから学生モデルへの知識の伝達と,学生モデルの定量化と定量化について提案する。
論文 参考訳(メタデータ) (2022-03-21T18:04:25Z) - Risk Guarantees for End-to-End Prediction and Optimization Processes [0.0]
予測性能が最適化性能をどのように支配するかを明確に記述できる条件を検討します。
我々は、二乗損失で測定された予測性能と対称損失関数のクラスとその後の最適化性能との正確な理論的関係を導出する。
論文 参考訳(メタデータ) (2020-12-30T05:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。