論文の概要: Towards AI-Architecture Liberty: A Comprehensive Survey on Designing and Collaborating Virtual Architecture by Deep Learning in the Metaverse
- arxiv url: http://arxiv.org/abs/2305.00510v3
- Date: Sun, 7 Apr 2024 05:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 05:27:02.558059
- Title: Towards AI-Architecture Liberty: A Comprehensive Survey on Designing and Collaborating Virtual Architecture by Deep Learning in the Metaverse
- Title(参考訳): AI-Architecture Libertyを目指す - メタバースにおけるディープラーニングによる仮想アーキテクチャの設計とコラボレーションに関する総合的な調査
- Authors: Anqi Wang, Jiahua Dong, Lik-Hang Lee, Jiachuan Shen, Pan Hui,
- Abstract要約: まず、仮想アーキテクチャの原理、生成技術、そして現在の文献を照らします。
本研究では, 深部生成モデル(DGM)を用いた3次元オブジェクト生成への最新のアプローチについて検討する。
深層学習支援アーキテクチャ生成における没入型システムとのユビキタスインタラクションの3つの重要な実現点を強調した。
- 参考スコア(独自算出の注目度): 23.58793497403681
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D shape generation techniques leveraging deep learning have garnered significant interest from both the computer vision and architectural design communities, promising to enrich the content of the future metaverse. However, research on virtual architectural design remains limited, particularly regarding human-AI collaboration and deep learning-assisted design. We first illuminate the principles, generation techniques, and current literature of virtual architecture, focusing on challenges such as datasets, multimodality, design intuition, and generative frameworks. In our survey, we reviewed 187 related articles (80.7\% of articles published between 2018 and 2022) covering architectural research, virtual environments, and technical approaches. This survey investigates the latest approaches to 3D object generation with deep generative models (DGMs) and summarizes four characteristics of deep-learning generation approaches for virtual architecture. According to our analysis of the survey, we expound on four research agendas, including agency, communication, user consideration, and integrating tools, and highlight three important enablers of ubiquitous interaction with immersive systems in deep learning-assisted architectural generation. Our work contributes to fostering understanding between designers and deep learning techniques, broadening access to human-AI collaboration. We advocate for interdisciplinary efforts to address this timely research topic, facilitating content designing and generation in the metaverse.
- Abstract(参考訳): ディープラーニングを活用した3D形状生成技術は、コンピュータビジョンとアーキテクチャデザインコミュニティの両方から大きな関心を集め、将来のメタバースの内容を強化することを約束している。
しかし、バーチャルアーキテクチャ設計の研究は、人間とAIのコラボレーションとディープラーニング支援設計に関して、依然として限られている。
私たちはまず、データセット、マルチモーダリティ、デザイン直観、生成フレームワークといった課題に焦点を当て、原則、生成テクニック、そして現在の仮想アーキテクチャの文献を照らします。
調査では、アーキテクチャ研究、仮想環境、技術的アプローチに関する187の関連記事(2018年から2022年にかけて発行された記事の80.7%)をレビューした。
本研究では, 深層生成モデル(DGM)を用いた最新の3次元オブジェクト生成手法について検討し, 仮想アーキテクチャにおけるディープラーニング生成手法の4つの特徴を要約する。
本調査の分析では,エージェント,コミュニケーション,ユーザ配慮,統合ツールなど,4つの研究課題について概説し,深層学習支援アーキテクチャ生成における没入型システムとのユビキタスなインタラクションを実現する上で,3つの重要な課題を浮き彫りにした。
私たちの研究は、デザイナとディープラーニング技術間の理解の促進に寄与し、人間とAIのコラボレーションへのアクセスを拡大します。
我々は、このタイムリーな研究トピックに対処するための学際的な取り組みを提唱し、メタバースにおけるコンテンツ設計と生成を促進する。
関連論文リスト
- Empowering Clients: Transformation of Design Processes Due to Generative AI [1.4003044924094596]
この研究は、AIがアイデアの迅速な視覚化を通じて、クライアントが設計プロセスに参加することを可能にすることによって、アイデアのフェーズを破壊できることを明らかにしている。
私たちの研究は、AIが設計に対して貴重なフィードバックを提供することができる一方で、そのような設計を生成できない可能性があることを示しています。
アーキテクチャの解釈的主権と,AIが設計プロセスのオーサシップをますます引き継ぐにつれて,意味とアイデンティティの喪失について,アーキテクトの間に不確実性があることも明らかになった。
論文 参考訳(メタデータ) (2024-11-22T16:48:15Z) - Unlocking Comics: The AI4VA Dataset for Visual Understanding [62.345344799258804]
本稿では,1950年代のフレンチ・ベルジアン漫画に,深度推定,セマンティックセグメンテーション,サリエンシ検出,キャラクタ識別などのタスクを注記した新しいデータセットを提案する。
2つの異なる一貫したスタイルで構成され、自然画像から得られたオブジェクトの概念とラベルを取り入れている。
このような多様な情報を含むことで、このデータセットは計算の創造性を約束するだけでなく、アートのデジタル化やストーリーテリングの革新のための道も提供します。
論文 参考訳(メタデータ) (2024-10-27T14:27:05Z) - Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - LLM4DESIGN: An Automated Multi-Modal System for Architectural and Environmental Design [2.934816617441014]
本研究では,建築・環境設計を高度に自動化したLLM4DESIGNを提案する。
創造性を育むためにマルチエージェントシステムを使用し、リアリズムの基盤設計にRAG(Retrieval Augmented Generation)、すべての情報を同期するためにVisual Language Models(VLM)を採用している。
論文 参考訳(メタデータ) (2024-06-28T10:57:50Z) - Sketch-to-Architecture: Generative AI-aided Architectural Design [20.42779592734634]
簡単なスケッチから概念的なフロアプランと3Dモデルを生成するために,AIモデルを利用する新しいワークフローを提案する。
我々の研究は、アーキテクチャ設計プロセスにおける生成AIの可能性を示し、コンピュータ支援アーキテクチャ設計の新しい方向性を指し示している。
論文 参考訳(メタデータ) (2024-03-29T14:04:45Z) - Recent Trends in 3D Reconstruction of General Non-Rigid Scenes [104.07781871008186]
コンピュータグラフィックスやコンピュータビジョンにおいて、3次元幾何学、外観、実際のシーンの動きを含む現実世界のモデルの再構築が不可欠である。
これは、映画産業やAR/VRアプリケーションに有用な、フォトリアリスティックなノベルビューの合成を可能にする。
この最新技術レポート(STAR)は、モノクロおよびマルチビュー入力による最新技術の概要を読者に提供する。
論文 参考訳(メタデータ) (2024-03-22T09:46:11Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Detecting Visual Design Principles in Art and Architecture through Deep
Convolutional Neural Networks [0.0]
本研究の目的は、異なるドメインに対する設計原則を認識し、分類するニューラルネットワークモデルである。
提案したモデルは,その基盤となる共有パターンをキャプチャして,原設計の無数の知識から学習する。
論文 参考訳(メタデータ) (2021-08-09T14:00:17Z) - Visionary: Vision architecture discovery for robot learning [58.67846907923373]
低次元動作入力と高次元視覚入力の相互作用を検出するロボット操作学習のための視覚に基づくアーキテクチャ探索アルゴリズムを提案する。
提案手法は,タスクのトレーニング中にアーキテクチャを自動設計する - イメージ特徴表現をアクションと組み合わせ,参加する新しい方法と,それ以前のレイヤの機能とを組み合わせて発見する。
論文 参考訳(メタデータ) (2021-03-26T17:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。