論文の概要: Tirtha -- An Automated Platform to Crowdsource Images and Create 3D
Models of Heritage Sites
- arxiv url: http://arxiv.org/abs/2308.01246v2
- Date: Tue, 15 Aug 2023 17:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 15:59:44.786470
- Title: Tirtha -- An Automated Platform to Crowdsource Images and Create 3D
Models of Heritage Sites
- Title(参考訳): tirtha - 画像のクラウドソースと遺産の3dモデル作成のための自動化プラットフォーム
- Authors: Jyotirmaya Shivottam and Subhankar Mishra
- Abstract要約: 文化遺産のデジタル保存は、自然災害や人的活動による被害から保護するために重要である。
CHサイトの3Dモデルの作成は、コンピュータビジョンとフォトグラムメトリーの進歩により、デジタル保存の一般的な方法となっている。
我々は,CHサイトの画像をクラウドソーシングし,それらの3Dモデルを作成するためのWebプラットフォームであるTirthaを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Digital preservation of Cultural Heritage (CH) sites is crucial to protect
them against damage from natural disasters or human activities. Creating 3D
models of CH sites has become a popular method of digital preservation thanks
to advancements in computer vision and photogrammetry. However, the process is
time-consuming, expensive, and typically requires specialized equipment and
expertise, posing challenges in resource-limited developing countries.
Additionally, the lack of an open repository for 3D models hinders research and
public engagement with their heritage. To address these issues, we propose
Tirtha, a web platform for crowdsourcing images of CH sites and creating their
3D models. Tirtha utilizes state-of-the-art Structure from Motion (SfM) and
Multi-View Stereo (MVS) techniques. It is modular, extensible and
cost-effective, allowing for the incorporation of new techniques as
photogrammetry advances. Tirtha is accessible through a web interface at
https://tirtha.niser.ac.in and can be deployed on-premise or in a cloud
environment. In our case studies, we demonstrate the pipeline's effectiveness
by creating 3D models of temples in Odisha, India, using crowdsourced images.
These models are available for viewing, interaction, and download on the Tirtha
website. Our work aims to provide a dataset of crowdsourced images and 3D
reconstructions for research in computer vision, heritage conservation, and
related domains. Overall, Tirtha is a step towards democratizing digital
preservation, primarily in resource-limited developing countries.
- Abstract(参考訳): 文化遺産(ch)のデジタル保存は、自然災害や人間の活動による被害から保護するために重要である。
CHサイトの3Dモデルの作成は、コンピュータビジョンとフォトグラムメトリーの進歩により、デジタル保存の一般的な方法となっている。
しかし、このプロセスは時間がかかり、高価であり、通常は特別な設備と専門知識を必要とし、資源に制限された発展途上国で課題を提起する。
さらに、3Dモデルのためのオープンリポジトリがないことは、研究と彼らの遺産への公的な関与を妨げる。
そこで我々は,chサイトの画像をクラウドソーシングして3dモデルを作成するためのwebプラットフォームであるtirthaを提案する。
Tirthaは最先端のStructure from Motion (SfM)とMulti-View Stereo (MVS)技術を利用している。
モジュラーで拡張可能で費用対効果があり、フォトグラメトリーの進歩に伴って新しい技術が取り入れられる。
Tirthaはhttps://tirtha.niser.ac.inのWebインターフェースを通じてアクセスでき、オンプレミスでもクラウド環境でもデプロイできる。
本研究では,インド,オディーシャの寺院の3dモデルを作成し,クラウドソーシング画像を用いてパイプラインの有効性を実証する。
これらのモデルは、tirthaのウェブサイトで閲覧、対話、ダウンロードが可能である。
本研究の目的は,コンピュータビジョン,遺産保存,関連ドメイン研究のためのクラウドソース画像と3D再構成のデータセットを提供することである。
全体として、Tirthaは、主に資源に制限された発展途上国で、デジタル保存の民主化に向けた一歩だ。
関連論文リスト
- Creating Seamless 3D Maps Using Radiance Fields [0.0]
ナビゲーション,仮想観光,都市計画などの応用のために,2次元入力画像から3次元オブジェクトモデルと3次元マップを作成することが望ましい。
従来の方法では反射面と特異反射が困難である。
Google Road Viewは実際の3Dオブジェクトモデルを作成するのではなく、ビューの集合である。
論文 参考訳(メタデータ) (2024-03-17T22:49:07Z) - A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - Persistent Nature: A Generative Model of Unbounded 3D Worlds [74.51149070418002]
任意のカメラポーズから3Dデコーダとボリュームレンダリングによって描画できる拡張可能な平面配置グリッドを提案する。
この表現に基づいて、単一視点のインターネット写真のみから生成的世界モデルを学ぶ。
提案手法は,現在の3次元生成モデルの固定境界を超えるシーン外挿を可能にするとともに,永続的でカメラに依存しない世界表現をサポートする。
論文 参考訳(メタデータ) (2023-03-23T17:59:40Z) - Towers of Babel: Combining Images, Language, and 3D Geometry for
Learning Multimodal Vision [50.07532560364523]
本稿では,字幕と階層的カテゴリ名という形で記述テキストを含む,ランドマーク写真コレクションの大規模データセットを提案する。
WikiScenesは、画像、テキスト、および3D幾何学を含むマルチモーダル推論のための新しいテストベッドを形成する。
論文 参考訳(メタデータ) (2021-08-12T17:16:49Z) - Procedural 3D Terrain Generation using Generative Adversarial Networks [0.0]
我々はGAN(Generative Adversarial Networks)を用いて、衛星やドローンが捉えた風景のリモートセンシング画像の分布に基づいて、現実的な3D環境を作り出す。
我々は、トレーニング中に提供されるリモートセンシングされた景観に関連して、高所分布と彩色が可能な3次元景観を構築することができる。
論文 参考訳(メタデータ) (2020-10-13T14:15:10Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z) - Attention-based 3D Object Reconstruction from a Single Image [0.2519906683279153]
本稿では,3次元オブジェクト再構成の最先端手法であるOccupancy Networksを改良することを提案する。
本稿では,ネットワークエンコーダ内の自己注意の概念を適用し,補完的な入力機能を活用する。
我々は、メッシュIoUの5.05%、正規一貫性の0.83%、チャンファー-L1距離の10倍以上でオリジナルの作業を改善することができた。
論文 参考訳(メタデータ) (2020-08-11T14:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。