論文の概要: Towards complete digital twins in cultural heritage with ART3mis 3D artifacts annotator
- arxiv url: http://arxiv.org/abs/2602.12761v1
- Date: Fri, 13 Feb 2026 09:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.911878
- Title: Towards complete digital twins in cultural heritage with ART3mis 3D artifacts annotator
- Title(参考訳): ART3mis 3Dアーティファクトアノテータを用いたデジタル双生児の文化遺産化に向けて
- Authors: Dimitrios Karamatskos, Vasileios Arampatzakis, Vasileios Sevetlidis, Stavros Nousias, Athanasios Kalogeras, Christos Koulamas, Aris Lalos, George Pavlidis,
- Abstract要約: 考古学者は、文化遺産の専門家や実践家と同様に、さらなる機能を持つ応用を必要としている。
本稿では、3Dオブジェクトのための汎用的でユーザフレンドリで、機能豊富な対話型WebベースのテキストアノテーションツールART3misを紹介する。
主に、文化遺産の保存者、修復者、キュレーターが、3D画像グラフィックス、ハンドリング、セグメント、注釈の付いた人工物の3Dデジタルレプリカを簡単かつ容易に作成できるように設計されている。
- 参考スコア(独自算出の注目度): 1.6329972985174017
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Archaeologists, as well as specialists and practitioners in cultural heritage, require applications with additional functions, such as the annotation and attachment of metadata to specific regions of the 3D digital artifacts, to go beyond the simplistic three-dimensional (3D) visualization. Different strategies addressed this issue, most of which are excellent in their particular area of application, but their capacity is limited to their design's purpose; they lack generalization and interoperability. This paper introduces ART3mis, a general-purpose, user-friendly, feature-rich, interactive web-based textual annotation tool for 3D objects. Moreover, it enables the communication, distribution, and reuse of information as it complies with the W3C Web Annotation Data Model. It is primarily designed to help cultural heritage conservators, restorers, and curators who lack technical expertise in 3D imaging and graphics, handle, segment, and annotate 3D digital replicas of artifacts with ease.
- Abstract(参考訳): 考古学者だけでなく、文化遺産の専門家や実践家も、3Dデジタルアーティファクトの特定の領域にメタデータのアノテーションやアタッチメントなどの追加の機能を応用して、単純化された3次元の可視化を超えていく必要がある。
異なる戦略がこの問題に対処し、そのほとんどは特定のアプリケーション領域で優れているが、その能力は設計目的に限られており、一般化と相互運用性が欠如している。
本稿では、3Dオブジェクトのための汎用的でユーザフレンドリで、機能豊富な対話型WebベースのテキストアノテーションツールART3misを紹介する。
さらに、W3C Web Annotation Data Modelに準拠した情報通信、配信、再利用を可能にする。
主に、3D画像やグラフィクス、ハンドル、セグメント、アノテートされた人工物の3Dデジタルレプリカの技術的な専門知識に欠ける文化遺産の保存者、修復者、キュレーターを支援するように設計されている。
関連論文リスト
- ART3mis: Ray-Based Textual Annotation on 3D Cultural Objects [1.400794947339632]
ART3misは3Dオブジェクトのための汎用的でユーザフレンドリでインタラクティブなテキストアノテーションツールである。
文化遺産の保存者、修復者、キュレーターが3D画像とグラフィックの技術的スキルを欠くのを助ける。
詳細な3D文化オブジェクトをリアルタイムで処理し、複数の複雑な領域の詳細なアノテーションを格納することができる。
論文 参考訳(メタデータ) (2026-02-13T08:55:56Z) - Aligning Text, Images, and 3D Structure Token-by-Token [8.521599463802637]
構造化3次元シーンにおける自己回帰モデルの可能性について検討する。
言語,画像,3Dシーンを整合させる統一LLMフレームワークを提案する。
実世界の3Dオブジェクト認識タスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2025-06-09T17:59:37Z) - Object-X: Learning to Reconstruct Multi-Modal 3D Object Representations [114.57192386025373]
Object-Xは多目的なマルチモーダル3D表現フレームワークである。
リッチなオブジェクトの埋め込みをエンコードして、幾何学的および視覚的再構成に復号することができる。
シーンアライメント、シングルイメージの3Dオブジェクト再構成、ローカライゼーションなど、さまざまなダウンストリームタスクをサポートする。
論文 参考訳(メタデータ) (2025-06-05T09:14:42Z) - RASP: Revisiting 3D Anamorphic Art for Shadow-Guided Packing of Irregular Objects [17.411855207380256]
我々は3Dアナモルフィックアートからの洞察に基づいて3Dオブジェクトアレンジメントを行う。
RASPは,任意の形状の3Dオブジェクトを有界体積内に配置する,微分可能なレンダリングベースのフレームワークである。
我々は多視点アナモルフィックアートのアートイラストを提示し、多視点から意味のある表現を実現した。
論文 参考訳(メタデータ) (2025-04-03T10:33:49Z) - Open-Vocabulary High-Resolution 3D (OVHR3D) Data Segmentation and Annotation Framework [1.1280113914145702]
本研究の目的は,3次元セグメンテーションタスクのための包括的で効率的なフレームワークの設計と開発である。
このフレームワークはGrounding DINOとSegment Any Modelを統合し、3Dメッシュによる2D画像レンダリングの強化によって強化される。
論文 参考訳(メタデータ) (2024-12-09T07:39:39Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - Large-Vocabulary 3D Diffusion Model with Transformer [57.076986347047]
本稿では,1つの生成モデルを用いて実世界の3Dオブジェクトの大規模カテゴリを合成するための拡散型フィードフォワードフレームワークを提案する。
本稿では,三面体を用いた3次元拡散モデル(TransFormer, DiffTF)を提案する。
ShapeNetとOmniObject3Dの実験は、単一のDiffTFモデルが最先端の大語彙3Dオブジェクト生成性能を達成することを確実に実証している。
論文 参考訳(メタデータ) (2023-09-14T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。