論文の概要: Learning Library Cell Representations in Vector Space
- arxiv url: http://arxiv.org/abs/2503.22900v1
- Date: Fri, 28 Mar 2025 22:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:17.065541
- Title: Learning Library Cell Representations in Vector Space
- Title(参考訳): ベクトル空間におけるライブラリーセル表現の学習
- Authors: Rongjian Liang, Yi-Chen Lu, Wen-Hao Liu, Haoxing Ren,
- Abstract要約: ライブラリーセルの有意義なベクトル表現を効率的に学習する,新たな自己教師型フレームワークであるLib2Vecを提案する。
本フレームワークは,1) セル間の関係をいかによく反映するかを定量的に評価する正則性テストの自動生成方法,2) リバティファイルからトレーニングデータを体系的に抽出し,コストのかかるラベル付けの必要性を除去する自己教師付き学習方式,3) 各種ピン数に対応し,プロパティ固有のセルやアーク埋め込みの作成を可能にする注目モデルアーキテクチャ,の3つの主要コンポーネントから構成される。
- 参考スコア(独自算出の注目度): 18.691688765200283
- License:
- Abstract: We propose Lib2Vec, a novel self-supervised framework to efficiently learn meaningful vector representations of library cells, enabling ML models to capture essential cell semantics. The framework comprises three key components: (1) an automated method for generating regularity tests to quantitatively evaluate how well cell representations reflect inter-cell relationships; (2) a self-supervised learning scheme that systematically extracts training data from Liberty files, removing the need for costly labeling; and (3) an attention-based model architecture that accommodates various pin counts and enables the creation of property-specific cell and arc embeddings. Experimental results demonstrate that Lib2Vec effectively captures functional and electrical similarities. Moreover, linear algebraic operations on cell vectors reveal meaningful relationships, such as vector(BUF) - vector(INV) + vector(NAND) ~ vector(AND), showcasing the framework's nuanced representation capabilities. Lib2Vec also enhances downstream circuit learning applications, especially when labeled data is scarce.
- Abstract(参考訳): 本稿では,ライブラリーセルの有意義なベクトル表現を効率的に学習する,新たな自己教師型フレームワークLib2Vecを提案する。
本フレームワークは,1) セル間の関係をいかによく反映するかを定量的に評価する正則性テストの自動生成方法,2) リバティファイルからトレーニングデータを体系的に抽出し,コストのかかるラベル付けの必要性を除去する自己教師付き学習方式,3) 各種ピン数に対応し,プロパティ固有のセルやアーク埋め込みの作成を可能にする注目モデルアーキテクチャ,の3つの主要コンポーネントから構成される。
実験の結果、Lib2Vecは機能的および電気的類似性を効果的に捉えていることが示された。
さらに、セルベクトル上の線形代数演算は、ベクター(BUF) - ベクター(INV) + ベクター(NAND) ~ ベクター(AND) のような意味のある関係を明らかにし、フレームワークのニュアンスド表現能力を示す。
Lib2Vecは、特にラベル付きデータが不足している場合、下流の回路学習アプリケーションも強化する。
関連論文リスト
- Vector-ICL: In-context Learning with Continuous Vector Representations [75.96920867382859]
大規模言語モデル (LLM) はテキストデータに顕著なコンテキスト内学習能力を示す。
ブラックボックス事前学習エンコーダから得られる様々な領域から連続ベクトルに拡張できるかどうかを検討する。
特に,汎用言語モデリング目的のプロジェクタを事前学習することで,Vector-ICLの実現が期待できる。
論文 参考訳(メタデータ) (2024-10-08T02:25:38Z) - Knowledge Composition using Task Vectors with Learned Anisotropic Scaling [51.4661186662329]
本稿では,パラメータブロックと異なる学習係数を線形に組み合わせ,タスクベクトルレベルでの異方性スケーリングを実現するアルゴリズムであるaTLASを紹介する。
このような線形結合は事前学習されたモデルの低内在性を明示的に利用しており、学習可能なパラメータは数係数のみであることを示す。
本稿では,タスク算術,少数ショット認識,テスト時間適応において,教師なしあるいは教師なしの目的を用いた手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-03T07:54:08Z) - LL-VQ-VAE: Learnable Lattice Vector-Quantization For Efficient
Representations [0.0]
学習可能な格子ベクトル量子化を導入し、離散表現の学習に有効であることを示す。
LL-VQ-VAEと呼ばれるこの手法は、VQ-VAEのベクトル量子化層を格子ベースの離散化に置き換える。
VQ-VAEと比較して、同じトレーニング条件下での低い再構成誤差、短時間のトレーニング、一定数のパラメータで得られる。
論文 参考訳(メタデータ) (2023-10-13T20:03:18Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Learning Cluster Patterns for Abstractive Summarization [0.0]
そこで我々は,デコーダがより有意な文脈ベクトルに参加できるような,有意なコンテキストベクトルと非有意なコンテキストベクトルの2つのクラスタについて考察する。
実験結果から,提案モデルは,これらの異なるクラスタパターンを学習することにより,既存のBARTモデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2022-02-22T15:15:24Z) - Sketching as a Tool for Understanding and Accelerating Self-attention
for Long Sequences [52.6022911513076]
トランスフォーマーベースのモデルは、自己アテンションモジュールの二次空間と時間的複雑さのために、長いシーケンスを処理するのに効率的ではない。
我々はLinformerとInformerを提案し、低次元投影と行選択により2次複雑性を線形(モジュラー対数因子)に還元する。
理論的解析に基づいて,Skeinformerを提案することにより,自己注意の促進と,自己注意への行列近似の精度の向上を図ることができる。
論文 参考訳(メタデータ) (2021-12-10T06:58:05Z) - Computing on Functions Using Randomized Vector Representations [4.066849397181077]
この新しい関数エンコーディングと計算フレームワーク Vector Function Architecture (VFA) と呼ぶ。
我々の分析と結果から,VFAは分散ニューラルネットワークにおける関数の表現と操作のための強力な新しいフレームワークとなっていることが示唆された。
論文 参考訳(メタデータ) (2021-09-08T04:39:48Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Semi-supervised Disentanglement with Independent Vector Variational
Autoencoders [7.700240949386079]
本研究では,データ生成因子を変分オートエンコーダ内の2つの潜在ベクトルに分割する。
個別のクラスの特徴を学習するために,少量のラベル付きデータを用いた監視を導入する。
i) このベクトル独立項は、複数の潜在ベクトルと下界を分解した証拠から得られた結果の中に存在し、(ii)ベクトル内の総相関を減らし、その独立を奨励することにより、非絡み合い性能が向上することを示す。
論文 参考訳(メタデータ) (2020-03-14T09:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。