論文の概要: Building LEGO Using Deep Generative Models of Graphs
- arxiv url: http://arxiv.org/abs/2012.11543v1
- Date: Mon, 21 Dec 2020 18:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:45:50.250447
- Title: Building LEGO Using Deep Generative Models of Graphs
- Title(参考訳): グラフの深い生成モデルを用いたlegoの構築
- Authors: Rylee Thompson, Elahe Ghalebi, Terrance DeVries, Graham W. Taylor
- Abstract要約: 我々はLEGOをシーケンシャルアセンブリの生成モデルを開発するためのプラットフォームとして提唱する。
人造構造から学び、視覚的に魅力的なデザインを生み出すことができるグラフ構造ニューラルネットワークに基づく生成モデルを開発する。
- 参考スコア(独自算出の注目度): 22.926487008829668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are now used to create a variety of high-quality digital
artifacts. Yet their use in designing physical objects has received far less
attention. In this paper, we advocate for the construction toy, LEGO, as a
platform for developing generative models of sequential assembly. We develop a
generative model based on graph-structured neural networks that can learn from
human-built structures and produce visually compelling designs. Our code is
released at: https://github.com/uoguelph-mlrg/GenerativeLEGO.
- Abstract(参考訳): 生成モデルは現在、様々な高品質デジタルアーティファクトの作成に使われている。
しかし、物理オブジェクトの設計における彼らの使用は、あまり注目されていない。
本稿では,シーケンシャルアセンブリの生成モデルを開発するためのプラットフォームとして,建設玩具であるlegoを提唱する。
我々は,人造構造から学習し,視覚的に魅力的な設計を実現できるグラフ構造化ニューラルネットワークに基づく生成モデルを開発した。
私たちのコードは、https://github.com/uoguelph-mlrg/generativelegoでリリースされています。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - 3DGEN: A GAN-based approach for generating novel 3D models from image
data [5.767281919406463]
本稿では,物体再構成のためのニューラル・ラジアンス・フィールドとGANに基づく画像生成のためのモデルである3DGENを提案する。
提案アーキテクチャでは、トレーニング画像と同じカテゴリのオブジェクトに対して可塑性メッシュを生成し、その結果のメッシュと最先端のベースラインを比較することができる。
論文 参考訳(メタデータ) (2023-12-13T12:24:34Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Towards A Visual Programming Tool to Create Deep Learning Models [15.838427479984926]
DeepBlocksは、Deep Learning開発者が特定のプログラミング言語に頼ることなく、モデルを設計、トレーニング、評価できるビジュアルプログラミングツールである。
我々は5人の参加者による形式的なインタビューから設計目標を導出し、典型的なユースケースを通じてツールの最初の実装を検証した。
論文 参考訳(メタデータ) (2023-03-22T16:47:48Z) - Break and Make: Interactive Structural Understanding Using LEGO Bricks [61.01136603613139]
私たちは、LEGOモデルの組み立て、分解、操作が可能な、完全にインタラクティブな3Dシミュレータを構築しました。
シーケンス・ツー・シーケンス・モデルを用いてこの問題を解決するための第一歩を踏み出す。
論文 参考訳(メタデータ) (2022-07-27T18:33:09Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Image2Lego: Customized LEGO Set Generation from Images [50.87935634904456]
2次元画像からLEGOブロックモデルを生成するシステムを実装した。
モデルは3Dボキセル化モデルのブロックへのアルゴリズム変換によって得られる。
我々は、オブジェクトと人間の顔のLEGOモデルのためのステップバイステップのビルド手順とアニメーションを生成します。
論文 参考訳(メタデータ) (2021-08-19T03:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。