論文の概要: Transforming Calabi-Yau Constructions: Generating New Calabi-Yau Manifolds with Transformers
- arxiv url: http://arxiv.org/abs/2507.03732v1
- Date: Fri, 04 Jul 2025 17:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.855968
- Title: Transforming Calabi-Yau Constructions: Generating New Calabi-Yau Manifolds with Transformers
- Title(参考訳): カラビ・ヤウ工法:変圧器を用いた新しいカラビ・ヤウ工法
- Authors: Jacky H. T. Yip, Charles Arnal, Francois Charton, Gary Shiu,
- Abstract要約: 我々は、さまざまなポリトープサイズにわたるFRSTを生成するために、ディープラーニングモデルを使用します。
我々のモデルは、効率的で偏りのないサンプリングを示し、自分たちの出力を再トレーニングすることで自己改善することができる。
これらの結果は、コミュニティ主導のプラットフォームであるAICYの基礎を築いた。機械学習モデルと継続的に拡張するFRSTデータベースを組み合わせて、Calabi-Yauランドスケープを探索しカタログ化する。
- 参考スコア(独自算出の注目度): 1.0606750069925006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine, regular, and star triangulations (FRSTs) of four-dimensional reflexive polytopes give rise to toric varieties, within which generic anticanonical hypersurfaces yield smooth Calabi-Yau threefolds. We employ transformers -- deep learning models originally developed for language modeling -- to generate FRSTs across a range of polytope sizes. Our models exhibit efficient and unbiased sampling, and can self-improve through retraining on their own output. These results lay the foundation for AICY: a community-driven platform that combines self-improving machine learning models with a continuously expanding FRST database to explore and catalog the Calabi-Yau landscape.
- Abstract(参考訳): 4次元反射性ポリトープの微細、正則、恒星三角測量(FRSTs)はトーリック多様体を生じさせ、そこでは一般の反正準超曲面が滑らかなカラビ・ヤウ3次元多様体を生成する。
言語モデリング用に開発されたディープラーニングモデルであるトランスフォーマーを使用して、さまざまなポリトープサイズのFRSTを生成します。
我々のモデルは、効率的で偏りのないサンプリングを示し、自分たちの出力を再トレーニングすることで自己改善することができる。
これらの結果は、コミュニティ主導のプラットフォームであるAICYの基礎を築いた。機械学習モデルと継続的に拡張するFRSTデータベースを組み合わせて、Calabi-Yauランドスケープを探索しカタログ化する。
関連論文リスト
- Transformers to SSMs: Distilling Quadratic Knowledge to Subquadratic Models [92.36510016591782]
本稿では,事前学習したトランスフォーマーアーキテクチャを,状態空間モデル(SSM)などの代替アーキテクチャに蒸留する手法を提案する。
提案手法はMOHAWKと呼ばれ、3Bトークンと5Bトークンを用いたハイブリッドバージョン(Hybrid Phi-Mamba)を用いてPhi-1.5アーキテクチャに基づくMamba-2変異体を蒸留することができる。
Phi-Mambaは、スクラッチからモデルのトレーニングに使用されるトレーニングデータの1%未満を使用してはいるが、過去のオープンソース非トランスフォーマーモデルと比較して、大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-08-19T17:48:11Z) - What Secrets Do Your Manifolds Hold? Understanding the Local Geometry of Generative Models [17.273596999339077]
本研究では,学習多様体の局所幾何学とその生成結果との関係について検討する。
筆者らは,与えられた潜伏像対に対して,局所記述子は生成モデルによる生成美学,多様性,記憶の指標であることを示す定量的および定性的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-15T17:59:06Z) - PASTA: Controllable Part-Aware Shape Generation with Autoregressive Transformers [5.7181794813117754]
PASTAは、高品質な3D形状を生成する自動回帰トランスフォーマーアーキテクチャである。
我々のモデルは、既存のパートベースおよび非パートベース手法よりも現実的で多様な3D形状を生成する。
論文 参考訳(メタデータ) (2024-07-18T16:52:45Z) - Converting Transformers to Polynomial Form for Secure Inference Over
Homomorphic Encryption [45.00129952368691]
ホモモルフィック暗号化(HE)は、ディープラーニングにおける最も有望なアプローチの1つである。
変換器を用いたHE上でのセキュアな推論のデモンストレーションとして,第1回変換器を紹介する。
我々のモデルは従来の手法に匹敵する結果をもたらし、同様のスケールのトランスフォーマーで性能ギャップを埋め、最先端のアプリケーションでHEが実現可能であることを裏付ける。
論文 参考訳(メタデータ) (2023-11-15T00:23:58Z) - CoCA: Fusing Position Embedding with Collinear Constrained Attention in
Transformers for Long Context Window Extending [25.72066098366845]
自己注意と位置埋め込みは、トランスフォーマーベースの大規模言語モデルにおける重要なモジュールである。
我々は新しい注意機構であるCoCA(Collinear Constrained Attention)を提案する。
コンテクストウィンドウの拡張において,CoCAは極めて良好に機能することを示す。
論文 参考訳(メタデータ) (2023-09-15T09:36:51Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - Provable Lipschitz Certification for Generative Models [103.97252161103042]
生成モデルのリプシッツ定数を上界化するためのスケーラブルな手法を提案する。
この集合をゾノトープを用いた層状凸近似により近似する。
これにより、小さなネットワーク上で効率的かつ厳密なバウンダリを提供し、VAEおよびDCGANアーキテクチャ上の生成モデルにスケールすることができる。
論文 参考訳(メタデータ) (2021-07-06T17:00:29Z) - Decision Transformer: Reinforcement Learning via Sequence Modeling [102.86873656751489]
本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。
本稿では,RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。
その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
論文 参考訳(メタデータ) (2021-06-02T17:53:39Z) - Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels [67.81799703916563]
低次元潜在空間におけるフォッカー・プランク方程式の解法として問題を定式化する新しい手法を導入する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
論文 参考訳(メタデータ) (2021-05-10T17:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。