論文の概要: Residual Network Based Direct Synthesis of EM Structures: A Study on
One-to-One Transformers
- arxiv url: http://arxiv.org/abs/2008.10755v1
- Date: Tue, 25 Aug 2020 00:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:35:31.181823
- Title: Residual Network Based Direct Synthesis of EM Structures: A Study on
One-to-One Transformers
- Title(参考訳): 残留ネットワークによるEM構造の直接合成:一対一変圧器に関する研究
- Authors: David Munzer, Siawpeng Er, Minshuo Chen, Yan Li, Naga S. Mannem, Tuo
Zhao, Hua Wang
- Abstract要約: オンチップ電磁(EM)受動構造の直接合成に機械学習モデルを用いることを提案する。
提案したニューラルネットワークモデルを用いて,45nm SOIプロセス上での1:1変換器の直接合成を実演する。
- 参考スコア(独自算出の注目度): 35.451149722564054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose using machine learning models for the direct synthesis of on-chip
electromagnetic (EM) passive structures to enable rapid or even automated
designs and optimizations of RF/mm-Wave circuits. As a proof of concept, we
demonstrate the direct synthesis of a 1:1 transformer on a 45nm SOI process
using our proposed neural network model. Using pre-existing transformer
s-parameter files and their geometric design training samples, the model
predicts target geometric designs.
- Abstract(参考訳): rf/mm波回路の高速、あるいは自動設計と最適化を実現するために、オンチップ電磁(em)パッシブ構造を直接合成するための機械学習モデルを提案する。
概念実証として,提案するニューラルネットワークモデルを用いて45nm soiプロセス上での1:1トランスの直接合成を実証する。
既存の変換器sパラメータファイルとその幾何学的設計トレーニングサンプルを用いて、モデルはターゲット幾何学的設計を予測する。
関連論文リスト
- Shrinking the Giant : Quasi-Weightless Transformers for Low Energy Inference [0.30104001512119216]
高速でエネルギー効率のよい推論モデルの構築は、様々なトランスフォーマーベースのアプリケーションを実現するために不可欠である。
拡張有限差分法によりLUTネットワークを直接学習する手法を構築した。
これにより、トランスベースのモデルに対する計算的でエネルギー効率の良い推論ソリューションが実現される。
論文 参考訳(メタデータ) (2024-11-04T05:38:56Z) - Self-Supervised Pre-Training for Table Structure Recognition Transformer [25.04573593082671]
テーブル構造認識変換器のための自己教師付き事前学習(SSP)手法を提案する。
線形射影変換器とハイブリッドCNN変換器のパフォーマンスギャップは、TSRモデルにおける視覚エンコーダのSSPにより緩和できる。
論文 参考訳(メタデータ) (2024-02-23T19:34:06Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Effective Pre-Training Objectives for Transformer-based Autoencoders [97.99741848756302]
トランスフォーマーエンコーダの効率,コスト,精度のトレードオフについて検討する。
共通の目的の機能を組み合わせて、新しい効果的な事前学習アプローチを作成します。
論文 参考訳(メタデータ) (2022-10-24T18:39:44Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Variational Autoencoder based Metamodeling for Multi-Objective Topology
Optimization of Electrical Machines [0.0]
本稿では,異なるパラメータの電気機械トポロジのキーパフォーマンス指標(KPI)を同時に予測する新しい手法を提案する。
トレーニング後、潜在空間を介して、デコーダと多層ニューラルネットワークは、それぞれ新しいデザインをサンプリングし、関連するトポロジを予測するメタモデルとして機能する。
論文 参考訳(メタデータ) (2022-01-21T19:49:54Z) - Deep Learning Assisted End-to-End Synthesis of mm-Wave Passive Networks
with 3D EM Structures: A Study on A Transformer-Based Matching Network [34.714685301031636]
本稿では,3次元EM構造を持つRF/mm波受動マッチングネットワークのエンドツーエンド生成のためのディープラーニング合成手法を提案する。
オンチップ1:1変圧器を用いたインピーダンスマッチングネットワーク上で,提案した合成ニューラルネットワーク(NN)モデルを示す。
論文 参考訳(メタデータ) (2022-01-06T16:55:41Z) - Invertible Surrogate Models: Joint surrogate modelling and
reconstruction of Laser-Wakefield Acceleration by invertible neural networks [55.41644538483948]
可逆ニューラルネットワークは、機械学習の最近の技術である。
我々は、レーザープラズマ加速器(iLWFA)に関わる物理学の複雑な前方シミュレーションを近似する可逆サロゲートモデルを導入する。
論文 参考訳(メタデータ) (2021-06-01T12:26:10Z) - Combining Transformer Generators with Convolutional Discriminators [9.83490307808789]
最近提案されたTransGANはトランスフォーマーアーキテクチャのみを使用した最初のGANである。
TransGANは、データ拡張、トレーニング中の補助的な超解像タスク、そして自己保持メカニズムを導く前にマスクを必要とする。
我々は、よく知られたCNN識別器のベンチマークを行い、トランスフォーマーベースジェネレータのサイズを減らし、両方のアーキテクチャ要素をハイブリッドモデルに組み込むことにより、より良い結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-21T07:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。