論文の概要: Device Image-IV Mapping using Variational Autoencoder for Inverse Design
and Forward Prediction
- arxiv url: http://arxiv.org/abs/2304.00738v1
- Date: Mon, 3 Apr 2023 06:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:37:43.600830
- Title: Device Image-IV Mapping using Variational Autoencoder for Inverse Design
and Forward Prediction
- Title(参考訳): 変分オートエンコーダを用いたデバイス画像-IVマッピングによる逆設計と前方予測
- Authors: Thomas Lu, Albert Lu, and Hiu Yung Wong
- Abstract要約: 本稿では、デバイス構造画像を対応する電流電圧(IV)特性にマッピングすることで、基礎となるデバイス物理の学習を実証する。
VAEは使用されるため、ドメインの専門知識は必要とせず、フレームワークはどんな新しいデバイスや測定にも素早くデプロイできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper demonstrates the learning of the underlying device physics by
mapping device structure images to their corresponding Current-Voltage (IV)
characteristics using a novel framework based on variational autoencoders
(VAE). Since VAE is used, domain expertise is not required and the framework
can be quickly deployed on any new device and measurement. This is expected to
be useful in the compact modeling of novel devices when only device
cross-sectional images and electrical characteristics are available (e.g. novel
emerging memory). Technology Computer-Aided Design (TCAD) generated and
hand-drawn Metal-Oxide-Semiconductor (MOS) device images and noisy
drain-current-gate-voltage curves (IDVG) are used for the demonstration. The
framework is formed by stacking two VAEs (one for image manifold learning and
one for IDVG manifold learning) which communicate with each other through the
latent variables. Five independent variables with different strengths are used.
It is shown that it can perform inverse design (generate a design structure for
a given IDVG) and forward prediction (predict IDVG for a given structure image,
which can be used for compact modeling if the image is treated as device
parameters) successfully. Since manifold learning is used, the machine is shown
to be robust against noise in the inputs (i.e. using hand-drawn images and
noisy IDVG curves) and not confused by weak and irrelevant independent
variables.
- Abstract(参考訳): 本稿では,変分オートエンコーダ(vae)に基づく新しい枠組みを用いて,デバイス構造画像を対応する電流電圧(iv)特性にマッピングすることで,基礎となるデバイス物理の学習を実証する。
VAEは使用されるため、ドメインの専門知識は必要とせず、フレームワークはどんな新しいデバイスや測定にも素早くデプロイできる。
これは、デバイス横断画像と電気的特性しか利用できない場合(例えば、新しい新興メモリ)に、新しいデバイスのコンパクトなモデリングに有用であることが期待される。
実演には技術コンピュータ支援設計(tcad)と手描きの金属酸化物半導体(mos)デバイス画像とノイズドレイン電流ゲート電圧曲線(idvg)を用いた。
このフレームワークは2つのVAE(画像多様体学習用とIDVG多様体学習用)を積み重ねて形成され、潜在変数を介して相互に通信する。
異なる強度を持つ5つの独立変数が使用される。
逆設計(所定のIDVGの設計構造を生成する)と前方予測(所定の構造画像に対する予測IDVG)をうまく行うことができ、画像がデバイスパラメータとして扱われる場合のコンパクトなモデリングに使用できる。
多様体学習が用いられるため、機械は入力(手書き画像とノイズIDVG曲線)のノイズに対して頑健であり、弱い独立変数と無関係な独立変数に混同されない。
関連論文リスト
- Automation of Quantum Dot Measurement Analysis via Explainable Machine Learning [0.0]
本研究では,合成三角形の数学的モデリングによる画像ベクトル化手法を提案する。
本手法は,精度を犠牲にすることなく,モデル予測の優れた説明性を提供することを示す。
この研究は、量子ドット計測の分析に説明可能な機械学習技術を適用する可能性と利点を実証する。
論文 参考訳(メタデータ) (2024-02-21T11:00:23Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - ModeT: Learning Deformable Image Registration via Motion Decomposition
Transformer [7.629385629884155]
本稿では,複数のモーダルを明示的にモデル化する新しい動作分解変換器 (ModeT) を提案する。
提案手法は,現状の登録ネットワークやトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2023-06-09T06:00:05Z) - Physics and Chemistry from Parsimonious Representations: Image Analysis
via Invariant Variational Autoencoders [0.0]
変分オートエンコーダ(VAE)は教師なしデータ解析の強力なパラダイムとして登場している。
この記事では、VAEの背景にある基本的な原則と直観を概説する。
論文 参考訳(メタデータ) (2023-03-30T03:16:27Z) - Visual Odometry with Neuromorphic Resonator Networks [9.903137966539898]
視覚オドメトリー(英語: Visual Odometry, VO)は、視覚センサを用いた移動ロボットの自走を推定する手法である。
ニューロモルフィックハードウェアは多くのビジョンとAI問題に対する低消費電力のソリューションを提供する。
本稿では,2次元VOタスクにおける最先端性能を実現するモジュール型ニューロモルフィックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-05T14:57:03Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - ViTAE: Vision Transformer Advanced by Exploring Intrinsic Inductive Bias [76.16156833138038]
コンボリューション, ie, ViTAEから内在性IBを探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
各トランス層では、ViTAEはマルチヘッド自己保持モジュールと平行な畳み込みブロックを持ち、その特徴は融合されフィードフォワードネットワークに供給される。
論文 参考訳(メタデータ) (2021-06-07T05:31:06Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Multi-Scale Vision Longformer: A New Vision Transformer for
High-Resolution Image Encoding [81.07894629034767]
本稿では,新しいViTアーキテクチャであるMulti-Scale Vision Longformerを提案する。
これは、2つの技術を用いて高解像度画像をエンコードするためのquotionosovitskiy 2020 imageのvitを大幅に強化する。
論文 参考訳(メタデータ) (2021-03-29T06:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。