論文の概要: A Concise Function Representation for Faster Exact MPE and Constrained
Optimisation in Graphical Models
- arxiv url: http://arxiv.org/abs/2108.03899v1
- Date: Mon, 9 Aug 2021 09:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 23:20:58.023258
- Title: A Concise Function Representation for Faster Exact MPE and Constrained
Optimisation in Graphical Models
- Title(参考訳): 高速なMPEのための簡潔関数表現と図形モデルにおける制約付き最適化
- Authors: Filippo Bistaffa
- Abstract要約: バケット除去における決定論的有限状態オートマトンに基づく簡潔表現の活用法を示す。
FABE内での簡潔な表現を使用することで、実行時およびメモリ要求の観点からBEの性能を劇的に改善します。
- 参考スコア(独自算出の注目度): 2.756495551805069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel concise function representation for graphical models, a
central theoretical framework that provides the basis for many reasoning tasks.
We then show how we exploit our concise representation based on deterministic
finite state automata within Bucket Elimination (BE), a general approach based
on the concept of variable elimination that accommodates many inference and
optimisation tasks such as most probable explanation and constrained
optimisation. We denote our version of BE as FABE. By using our concise
representation within FABE, we dramatically improve the performance of BE in
terms of runtime and memory requirements. Results on standard benchmarks
obtained using an established experimental methodology show that FABE often
outperforms the best available approach (RBFAOO), leading to significant
runtime improvements (up to 2 orders of magnitude in our tests).
- Abstract(参考訳): 本稿では,多くの推論タスクの基盤を提供する中心的理論フレームワークであるグラフィカルモデルのための新しい簡潔関数表現を提案する。
次に、バケット除去(be)における決定論的有限状態オートマトンに基づく簡潔な表現をどのように活用するかを示す。これは変数除去の概念に基づく一般的なアプローチであり、最も可能性の高い説明や制約付き最適化のような多くの推論と最適化タスクを包含する。
BE のバージョンを FABE と表現します。
FABE内の簡潔な表現を使用することで、実行時およびメモリ要求の観点からBEの性能を劇的に改善します。
確立された実験手法を用いて得られた標準ベンチマークの結果、FABEは最も有効なアプローチ(RBFAOO)よりも優れており、実行時の大幅な改善(テストでは最大2桁まで)をもたらすことが示されている。
関連論文リスト
- Counting Reward Automata: Sample Efficient Reinforcement Learning
Through the Exploitation of Reward Function Structure [13.231546105751015]
本稿では,形式言語として表現可能な任意の報酬関数をモデル化可能な有限状態機械変種であるカウント・リワード・オートマトンを提案する。
このような抽象機械を組み込んだエージェントが,現在の手法よりも大きなタスクの集合を解くことができることを実証する。
論文 参考訳(メタデータ) (2023-12-18T17:20:38Z) - FuzzyFlow: Leveraging Dataflow To Find and Squash Program Optimization
Bugs [92.47146416628965]
FuzzyFlowはプログラム最適化をテストするために設計されたフォールトローカライゼーションとテストケース抽出フレームワークである。
我々は、データフロープログラム表現を活用して、完全に再現可能なシステム状態と最適化のエリア・オブ・エフェクトをキャプチャする。
テスト時間を削減するため,テスト入力を最小限に抑えるアルゴリズムを設計し,再計算のためのメモリ交換を行う。
論文 参考訳(メタデータ) (2023-06-28T13:00:17Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Optimisation of time-ordered processes in the finite and asymptotic
regime [0.0]
量子情報理論における多くの問題は、力学系の逐次的な結果に対する最適化として定式化することができる。
本研究では,このクラスの最適化問題に対して,トラクタブル緩和を導入する。
無限個の時間ステップの極限における逐次問題の最大スコアは一般に計算不可能であることを示す。
論文 参考訳(メタデータ) (2023-02-06T16:47:24Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - On the Limits of Evaluating Embodied Agent Model Generalization Using
Validation Sets [101.28658250723804]
本稿では,より広い視野を効果的に活用し,次のステップでナビゲーションや操作を行うかを選択するモジュールによるトランスフォーマーモデルの拡張実験を行う。
提案したモジュールは改良され,実際に,一般的なベンチマークデータセットであるALFREDの未確認検証セット上での最先端のパフォーマンスが向上した。
この結果は、機械学習タスクではより広い現象かもしれないが、主にテストスプリットの評価を制限するベンチマークでのみ顕著である、と我々は考えているので強調する。
論文 参考訳(メタデータ) (2022-05-18T23:52:21Z) - DQ-BART: Efficient Sequence-to-Sequence Model via Joint Distillation and
Quantization [75.72231742114951]
BARTやT5のような大規模事前学習シーケンス・ツー・シーケンスモデルは、多くの生成NLPタスクで最先端のパフォーマンスを達成する。
これらのモデルは、大きなメモリ要件と高いレイテンシのため、リソース制約のあるシナリオにおいて大きな課題となる。
そこで,本論文では,教師モデルから学生モデルへの知識の伝達と,学生モデルの定量化と定量化について提案する。
論文 参考訳(メタデータ) (2022-03-21T18:04:25Z) - Risk Guarantees for End-to-End Prediction and Optimization Processes [0.0]
予測性能が最適化性能をどのように支配するかを明確に記述できる条件を検討します。
我々は、二乗損失で測定された予測性能と対称損失関数のクラスとその後の最適化性能との正確な理論的関係を導出する。
論文 参考訳(メタデータ) (2020-12-30T05:20:26Z) - Additive Tree-Structured Conditional Parameter Spaces in Bayesian
Optimization: A Novel Covariance Function and a Fast Implementation [34.89735938765757]
木構造関数への加法仮定を一般化し, 改良された試料効率, より広い適用性, 柔軟性を示す。
パラメータ空間の構造情報と加法仮定をBOループに組み込むことで,取得関数を最適化する並列アルゴリズムを開発した。
本稿では,事前学習したVGG16およびRes50モデルのプルーニングとResNet20の検索アクティベーション関数に関する最適化ベンチマーク関数について述べる。
論文 参考訳(メタデータ) (2020-10-06T16:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。