論文の概要: Adaptive Reconvergence-driven AIG Rewriting via Strategy Learning
- arxiv url: http://arxiv.org/abs/2312.14536v1
- Date: Fri, 22 Dec 2023 09:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 15:39:51.801561
- Title: Adaptive Reconvergence-driven AIG Rewriting via Strategy Learning
- Title(参考訳): 戦略学習による適応的再収束駆動AIG書き換え
- Authors: Liwei Ni, Zonglin Yang, Jiaxi Zhang, Junfeng Liu, Huawei Li, Biwei
Xie, Xinquan Li
- Abstract要約: 書き換えは、回路の性能、パワー、面積を改善することを目的とした論理合成における一般的な手順である。
本稿では2つの重要な手法を組み合わせた適応的再収束駆動型AIG書き換えアルゴリズムを提案する。
実験の結果,提案手法は5.567%,5.327%の精度向上を達成できた。
- 参考スコア(独自算出の注目度): 7.269586271846072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rewriting is a common procedure in logic synthesis aimed at improving the
performance, power, and area (PPA) of circuits. The traditional
reconvergence-driven And-Inverter Graph (AIG) rewriting method focuses solely
on optimizing the reconvergence cone through Boolean algebra minimization.
However, there exist opportunities to incorporate other node-rewriting
algorithms that are better suited for specific cones. In this paper, we propose
an adaptive reconvergence-driven AIG rewriting algorithm that combines two key
techniques: multi-strategy-based AIG rewriting and strategy learning-based
algorithm selection. The multi-strategy-based rewriting method expands upon the
traditional approach by incorporating support for multi-node-rewriting
algorithms, thus expanding the optimization space. Additionally, the strategy
learning-based algorithm selection method determines the most suitable
node-rewriting algorithm for a given cone. Experimental results demonstrate
that our proposed method yields a significant average improvement of 5.567\% in
size and 5.327\% in depth.
- Abstract(参考訳): リライトは、回路の性能、パワー、面積(PPA)を改善することを目的とした論理合成における一般的な手順である。
従来のreconvergence-driven and-inverter graph (aig) rewriting法では、ブール代数の最小化によるreconvergence coneの最適化にのみ焦点が当てられている。
しかし、特定のコーンに適した他のノード書き換えアルゴリズムを組み込む機会がある。
本稿では,マルチストラテジーに基づくAIG書き換えと戦略学習に基づくアルゴリズム選択という,2つの重要な手法を組み合わせた適応型再収束型AIG書き換えアルゴリズムを提案する。
マルチストラテジーベースの書き換え手法は、マルチノード書き換えアルゴリズムのサポートを取り入れ、最適化空間を拡大することで従来のアプローチに拡張する。
さらに、戦略学習に基づくアルゴリズム選択法は、与えられたコーンに対して最も適切なノード書き換えアルゴリズムを決定する。
実験の結果,本手法は5.567\%,深さ5.327\%の有意な改善が得られた。
関連論文リスト
- Unleashing the Potential of Large Language Models as Prompt Optimizers: An Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
特に、勾配に基づく最適化から理論的な枠組みや学習手法を借用し、改良された戦略を設計する。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - A new simplified MOPSO based on Swarm Elitism and Swarm Memory: MO-ETPSO [0.0]
Elitist PSO (MO-ETPSO) は多目的最適化問題に適用される。
提案アルゴリズムは、確立されたNSGA-IIアプローチからコア戦略を統合する。
このアルゴリズムの新たな側面は、SwarmメモリとSwarmエリート主義の導入である。
論文 参考訳(メタデータ) (2024-02-20T09:36:18Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - From Optimization to Control: Quasi Policy Iteration [3.4376560669160394]
準政治反復(QPI)と呼ばれる新しい制御アルゴリズムを提案する。
QPIは、政策反復アルゴリズムにおける「ヘシアン」行列の新たな近似に基づいて、MDPに特有の2つの線形構造制約を利用する。
これは、割引係数に対する感度が極めて低い政策反復と同様の実証的な収束挙動を示す。
論文 参考訳(メタデータ) (2023-11-18T21:00:14Z) - Optimistic Optimisation of Composite Objective with Exponentiated Update [2.1700203922407493]
このアルゴリズムは指数勾配と$p$-normアルゴリズムの組み合わせと解釈できる。
彼らはシーケンス依存の後悔の上界を達成し、スパース目標決定変数の最もよく知られた境界と一致する。
論文 参考訳(メタデータ) (2022-08-08T11:29:55Z) - Bregman Gradient Policy Optimization [97.73041344738117]
本稿では,Bregmanの発散と運動量に基づく強化学習のためのBregmanグラデーションポリシーの最適化を設計する。
VR-BGPOは、各イテレーションで1つの軌道のみを必要とする$epsilon$stationaryポイントを見つけるために、$tilde(epsilon-3)$で最高の複雑性に達する。
論文 参考訳(メタデータ) (2021-06-23T01:08:54Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Covariance Matrix Adaptation Evolution Strategy Assisted by Principal
Component Analysis [4.658166900129066]
我々は,共分散行列適応進化戦略(CMA-ES)の反復中に,主成分分析(PCA)を用いて次元を縮小する。
論文 参考訳(メタデータ) (2021-05-08T12:43:38Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Optimization of Graph Total Variation via Active-Set-based Combinatorial
Reconditioning [48.42916680063503]
本稿では,この問題クラスにおける近位アルゴリズムの適応型事前条件付け手法を提案する。
不活性エッジのネスト・フォレスト分解により局所収束速度が保証されることを示す。
この結果から,局所収束解析は近似アルゴリズムにおける可変指標選択の指針となることが示唆された。
論文 参考訳(メタデータ) (2020-02-27T16:33:09Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。