論文の概要: An Open-source End-to-End Logic Optimization Framework for Large-scale Boolean Network with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2403.17395v1
- Date: Tue, 26 Mar 2024 05:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 16:36:05.452908
- Title: An Open-source End-to-End Logic Optimization Framework for Large-scale Boolean Network with Reinforcement Learning
- Title(参考訳): 強化学習型大規模ブールネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワーク
- Authors: Zhen Li, Kaixiang Zhu, Xuegong Zhou, Lingli Wang,
- Abstract要約: 本稿では,強化学習を伴う大規模ネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワークを提案する。
この枠組みは強化学習における問題解決に有効であることを示す。
- 参考スコア(独自算出の注目度): 3.621272303157629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an open-source end-to-end logic optimization framework for large-scale boolean network with reinforcement learning.
- Abstract(参考訳): 本稿では,大規模ブールネットワークのためのオープンソースのエンドツーエンド論理最適化フレームワークを提案する。
関連論文リスト
- Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - OpenR: An Open Source Framework for Advanced Reasoning with Large Language Models [61.14336781917986]
大規模言語モデル(LLM)の推論能力を高めるためのオープンソースのフレームワークであるOpenRを紹介する。
OpenRは、データ取得、強化学習トレーニング、非自己回帰デコーディングを凝集性ソフトウェアプラットフォームに統合する。
私たちの研究は、OpenAIのo1モデルのコア技術と強化学習を探求する、オープンソースのフレームワークを初めて提供するものです。
論文 参考訳(メタデータ) (2024-10-12T23:42:16Z) - Towards Narrowing the Generalization Gap in Deep Boolean Networks [3.230778132936486]
本稿では,従来のブリアンネットワークを越えつつ,ブリアンネットワークの深層化を図る戦略について検討する。
本稿では,論理的スキップ接続と空間性保持サンプリングを含む新しい手法を提案し,視覚タスクで検証する。
本稿では,1ビット論理演算による計算コストを最小化しながら,深いBooleanネットワークがハイパフォーマンスを維持する方法を示す。
論文 参考訳(メタデータ) (2024-09-06T09:16:36Z) - Fast and Scalable Network Slicing by Integrating Deep Learning with
Lagrangian Methods [8.72339110741777]
ネットワークスライシングは、多種多様なサービスを効率的にサポートするために、5G以上の重要なテクニックである。
ディープラーニングモデルは、動的スライシング構成に対する限定的な一般化と適応性に悩まされる。
本稿では,制約付き最適化手法とディープラーニングモデルを統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-22T07:19:16Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Efficient and Reliable Overlay Networks for Decentralized Federated
Learning [18.231702877235165]
分散化フェデレーションラーニング(DFL)を高速化するために,$d$regular expander graphsに基づく近似最適オーバーレイネットワークを提案する。
DFLでは、大量のクライアントがオーバーレイネットワークで接続されており、生データを共有せずに機械学習の問題を協調的に解決している。
各種ベンチマークタスクにおいて提案したネットワークによるDFLの利点を数値的に検証する。
論文 参考訳(メタデータ) (2021-12-12T21:03:16Z) - LIBRA: Enabling Workload-aware Multi-dimensional Network Topology Optimization for Distributed Training of Large AI Models [6.980277221943408]
我々は,機械学習システムにおける多次元ネットワークの設計を,ネットワーク全体の帯域幅を向上させるためのコスト効率のメカニズムとして動機付けている。
多次元ファブリックアーキテクチャの最適化に特化したフレームワークであるLIBRAを紹介する。
論文 参考訳(メタデータ) (2021-09-24T06:22:28Z) - Reinforcement Learning for Scalable Logic Optimization with Graph Neural
Networks [5.156191363676411]
本稿では,グラフ畳み込みネットワークと強化学習とを組み合わせることで,論理グラフにどの局所変換を適用するべきかを学習するための新しいスケーラブルノード埋め込み手法を提案する。
本手法は,小型回路におけるABCと同じようなサイズ低減を実現し,より大きなランダムグラフ上で1.5-1.75倍に上ることを示す。
論文 参考訳(メタデータ) (2021-05-04T20:51:54Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。