論文の概要: An Open-source End-to-End Logic Optimization Framework for Large-scale Boolean Network with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2403.17395v1
- Date: Tue, 26 Mar 2024 05:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 16:36:05.452908
- Title: An Open-source End-to-End Logic Optimization Framework for Large-scale Boolean Network with Reinforcement Learning
- Title(参考訳): 強化学習型大規模ブールネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワーク
- Authors: Zhen Li, Kaixiang Zhu, Xuegong Zhou, Lingli Wang,
- Abstract要約: 本稿では,強化学習を伴う大規模ネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワークを提案する。
この枠組みは強化学習における問題解決に有効であることを示す。
- 参考スコア(独自算出の注目度): 3.621272303157629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an open-source end-to-end logic optimization framework for large-scale boolean network with reinforcement learning.
- Abstract(参考訳): 本稿では,大規模ブールネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワークを提案する。
関連論文リスト
- Fast and Scalable Network Slicing by Integrating Deep Learning with
Lagrangian Methods [8.72339110741777]
ネットワークスライシングは、多種多様なサービスを効率的にサポートするために、5G以上の重要なテクニックである。
ディープラーニングモデルは、動的スライシング構成に対する限定的な一般化と適応性に悩まされる。
本稿では,制約付き最適化手法とディープラーニングモデルを統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-22T07:19:16Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Efficient and Reliable Overlay Networks for Decentralized Federated
Learning [18.231702877235165]
分散化フェデレーションラーニング(DFL)を高速化するために,$d$regular expander graphsに基づく近似最適オーバーレイネットワークを提案する。
DFLでは、大量のクライアントがオーバーレイネットワークで接続されており、生データを共有せずに機械学習の問題を協調的に解決している。
各種ベンチマークタスクにおいて提案したネットワークによるDFLの利点を数値的に検証する。
論文 参考訳(メタデータ) (2021-12-12T21:03:16Z) - LIBRA: Enabling Workload-aware Multi-dimensional Network Topology Optimization for Distributed Training of Large AI Models [6.980277221943408]
我々は,機械学習システムにおける多次元ネットワークの設計を,ネットワーク全体の帯域幅を向上させるためのコスト効率のメカニズムとして動機付けている。
多次元ファブリックアーキテクチャの最適化に特化したフレームワークであるLIBRAを紹介する。
論文 参考訳(メタデータ) (2021-09-24T06:22:28Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Reinforcement Learning for Scalable Logic Optimization with Graph Neural
Networks [5.156191363676411]
本稿では,グラフ畳み込みネットワークと強化学習とを組み合わせることで,論理グラフにどの局所変換を適用するべきかを学習するための新しいスケーラブルノード埋め込み手法を提案する。
本手法は,小型回路におけるABCと同じようなサイズ低減を実現し,より大きなランダムグラフ上で1.5-1.75倍に上ることを示す。
論文 参考訳(メタデータ) (2021-05-04T20:51:54Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。