論文の概要: Faster Exact MPE and Constrained Optimization with Deterministic Finite
State Automata
- arxiv url: http://arxiv.org/abs/2108.03899v3
- Date: Tue, 9 May 2023 21:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 18:05:00.504567
- Title: Faster Exact MPE and Constrained Optimization with Deterministic Finite
State Automata
- Title(参考訳): 決定論的有限状態オートマトンによるmpeの高速化と制約付き最適化
- Authors: Filippo Bistaffa
- Abstract要約: ケット除去(BE)における簡潔表現の活用
最も可能性の高い説明と重み付けされた制約満足度ベンチマークの結果は、FABEがしばしば芸術の状態を上回ります。
- 参考スコア(独自算出の注目度): 2.1777837784979273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a concise function representation based on deterministic finite
state automata for exact most probable explanation and constrained optimization
tasks in graphical models. We then exploit our concise representation within
Bucket Elimination (BE). We denote our version of BE as FABE. FABE
significantly improves the performance of BE in terms of runtime and memory
requirements by minimizing redundancy. Results on most probable explanation and
weighted constraint satisfaction benchmarks show that FABE often outperforms
the state of the art, leading to significant runtime improvements (up to 5
orders of magnitude in our tests).
- Abstract(参考訳): 本稿では,グラフィカルモデルにおける最も可能性の高い説明と制約付き最適化タスクのための決定論的有限状態オートマトンに基づく簡潔な関数表現を提案する。
次に、Bucket Elimination(BE)内の簡潔な表現を活用します。
BE のバージョンを FABE と表現します。
FABEは、冗長性を最小化することで、実行時およびメモリ要求の観点からBEのパフォーマンスを大幅に改善する。
最も可能性の高い説明と重み付けされた制約満足度ベンチマークの結果は、fabeがしばしば最先端を上回っており、実行時の大幅な改善(テストで最大5桁まで)をもたらしていることを示している。
関連論文リスト
- DRPruning: Efficient Large Language Model Pruning through Distributionally Robust Optimization [61.492590008258986]
大きな言語モデル(LLM)は素晴らしい結果をもたらすが、モデルのサイズと計算コストの増加による課題に直面している。
本稿では,分散的にロバストな最適化を取り入れたDRPruningを提案する。
論文 参考訳(メタデータ) (2024-11-21T12:02:39Z) - Respecting the limit:Bayesian optimization with a bound on the optimal value [3.004066195320147]
我々は、最小値の正確な知識があるか、または、おそらくその値に対するより低いバウンドを持つかのシナリオについて研究する。
本稿では,有界情報を組み込んだ新たなサロゲートモデルであるSlogGPについて述べる。
論文 参考訳(メタデータ) (2024-11-07T14:27:49Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Submodular Framework for Structured-Sparse Optimal Transport [7.030105924295838]
非平衡最適輸送(UOT)は、非正規化対策の柔軟な枠組みとロバスト性により、近年注目を集めている。
本研究では,UOT設定における疎輸送計画の学習(構造化)について検討する。
本稿では,最近検討された平均誤差に基づく UOT を用いた新しい空間制約付き UOT の定式化を提案する。
論文 参考訳(メタデータ) (2024-06-07T13:11:04Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - FuzzyFlow: Leveraging Dataflow To Find and Squash Program Optimization
Bugs [92.47146416628965]
FuzzyFlowはプログラム最適化をテストするために設計されたフォールトローカライゼーションとテストケース抽出フレームワークである。
我々は、データフロープログラム表現を活用して、完全に再現可能なシステム状態と最適化のエリア・オブ・エフェクトをキャプチャする。
テスト時間を削減するため,テスト入力を最小限に抑えるアルゴリズムを設計し,再計算のためのメモリ交換を行う。
論文 参考訳(メタデータ) (2023-06-28T13:00:17Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - DQ-BART: Efficient Sequence-to-Sequence Model via Joint Distillation and
Quantization [75.72231742114951]
BARTやT5のような大規模事前学習シーケンス・ツー・シーケンスモデルは、多くの生成NLPタスクで最先端のパフォーマンスを達成する。
これらのモデルは、大きなメモリ要件と高いレイテンシのため、リソース制約のあるシナリオにおいて大きな課題となる。
そこで,本論文では,教師モデルから学生モデルへの知識の伝達と,学生モデルの定量化と定量化について提案する。
論文 参考訳(メタデータ) (2022-03-21T18:04:25Z) - Risk Guarantees for End-to-End Prediction and Optimization Processes [0.0]
予測性能が最適化性能をどのように支配するかを明確に記述できる条件を検討します。
我々は、二乗損失で測定された予測性能と対称損失関数のクラスとその後の最適化性能との正確な理論的関係を導出する。
論文 参考訳(メタデータ) (2020-12-30T05:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。