論文の概要: ART3mis: Ray-Based Textual Annotation on 3D Cultural Objects
- arxiv url: http://arxiv.org/abs/2602.12725v1
- Date: Fri, 13 Feb 2026 08:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.89575
- Title: ART3mis: Ray-Based Textual Annotation on 3D Cultural Objects
- Title(参考訳): ART3mis:3D文化オブジェクトのレイベースのテキストアノテーション
- Authors: Vasileios Arampatzakis, Vasileios Sevetlidis, Fotis Arnaoutoglou, Athanasios Kalogeras, Christos Koulamas, Aris Lalos, Chairi Kiourt, George Ioannakis, Anestis Koutsoudis, George Pavlidis,
- Abstract要約: ART3misは3Dオブジェクトのための汎用的でユーザフレンドリでインタラクティブなテキストアノテーションツールである。
文化遺産の保存者、修復者、キュレーターが3D画像とグラフィックの技術的スキルを欠くのを助ける。
詳細な3D文化オブジェクトをリアルタイムで処理し、複数の複雑な領域の詳細なアノテーションを格納することができる。
- 参考スコア(独自算出の注目度): 1.400794947339632
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Beyond simplistic 3D visualisations, archaeologists, as well as cultural heritage experts and practitioners, need applications with advanced functionalities. Such as the annotation and attachment of metadata onto particular regions of the 3D digital objects. Various approaches have been presented to tackle this challenge, most of which achieve excellent results in the domain of their application. However, they are often confined to that specific domain and particular problem. In this paper, we present ART3mis - a general-purpose, user-friendly, interactive textual annotation tool for 3D objects. Primarily attuned to aid cultural heritage conservators, restorers and curators with no technical skills in 3D imaging and graphics, the tool allows for the easy handling, segmenting and annotating of 3D digital replicas of artefacts. ART3mis applies a user-driven, direct-on-surface approach. It can handle detailed 3D cultural objects in real-time and store textual annotations for multiple complex regions in JSON data format.
- Abstract(参考訳): 単純な3Dヴィジュアライゼーション以外にも、考古学者や文化遺産の専門家や専門家は高度な機能を持つアプリケーションを必要としている。
3Dデジタルオブジェクトの特定の領域へのメタデータのアノテーションやアタッチメントのようなものです。
この課題に取り組むための様々なアプローチが提示されているが、そのほとんどはアプリケーションのドメインにおいて優れた結果をもたらすものである。
しかし、それらはしばしばその特定の領域と特定の問題に制限される。
本稿では,3Dオブジェクトのための汎用的,ユーザフレンドリでインタラクティブなテキストアノテーションツールART3misを提案する。
主に、3D画像やグラフィックの技術的スキルを持たない文化遺産の保存者、修復者、キュレーターを支援するために作られたこのツールは、人工物の3Dデジタルレプリカの扱い、セグメンテーション、注釈付けを簡単にできる。
ART3misはユーザ主導の直接対地アプローチを採用している。
詳細な3D文化オブジェクトをリアルタイムに処理し、JSONデータ形式で複数の複雑なリージョンのテキストアノテーションを格納することができる。
関連論文リスト
- Towards complete digital twins in cultural heritage with ART3mis 3D artifacts annotator [1.6329972985174017]
考古学者は、文化遺産の専門家や実践家と同様に、さらなる機能を持つ応用を必要としている。
本稿では、3Dオブジェクトのための汎用的でユーザフレンドリで、機能豊富な対話型WebベースのテキストアノテーションツールART3misを紹介する。
主に、文化遺産の保存者、修復者、キュレーターが、3D画像グラフィックス、ハンドリング、セグメント、注釈の付いた人工物の3Dデジタルレプリカを簡単かつ容易に作成できるように設計されている。
論文 参考訳(メタデータ) (2026-02-13T09:42:41Z) - Segment Any 3D-Part in a Scene from a Sentence [50.46950922754459]
本稿では,自然言語記述に基づくシーン内の任意の3次元部分のセグメンテーションを実現することを目的とする。
本稿では,高密度部分アノテーションを用いた最初の大規模3Dデータセットである3D-PUデータセットを紹介する。
手法面では,パートレベルセグメンテーションの課題に対処する3DインプットのみのフレームワークであるOpenPart3Dを提案する。
論文 参考訳(メタデータ) (2025-06-24T05:51:22Z) - Aligning Text, Images, and 3D Structure Token-by-Token [8.521599463802637]
構造化3次元シーンにおける自己回帰モデルの可能性について検討する。
言語,画像,3Dシーンを整合させる統一LLMフレームワークを提案する。
実世界の3Dオブジェクト認識タスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2025-06-09T17:59:37Z) - RASP: Revisiting 3D Anamorphic Art for Shadow-Guided Packing of Irregular Objects [17.411855207380256]
我々は3Dアナモルフィックアートからの洞察に基づいて3Dオブジェクトアレンジメントを行う。
RASPは,任意の形状の3Dオブジェクトを有界体積内に配置する,微分可能なレンダリングベースのフレームワークである。
我々は多視点アナモルフィックアートのアートイラストを提示し、多視点から意味のある表現を実現した。
論文 参考訳(メタデータ) (2025-04-03T10:33:49Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - 3DStyleGLIP: Part-Tailored Text-Guided 3D Neural Stylization [1.3654846342364306]
3Dスタイリングは、特定のスタイルを三次元オブジェクトに適用することで、かなりの商業的可能性を秘めている。
近年の人工知能とテキスト駆動操作手法の進歩により、スタイリゼーションプロセスは直感的かつ自動化されつつある。
3DStyleGLIPはテキスト駆動3Dスタイリングに特化して設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2024-04-03T10:44:06Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - Chat-3D: Data-efficiently Tuning Large Language Model for Universal
Dialogue of 3D Scenes [56.727745047799246]
3Dシーンの理解は幅広い用途で注目されている。
本稿では,事前学習した3次元表現の3次元視覚的知覚能力と,高度なLCMの印象的な推論と会話能力を組み合わせたChat-3Dを提案する。
論文 参考訳(メタデータ) (2023-08-17T03:52:15Z) - OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic
Perception, Reconstruction and Generation [107.71752592196138]
OmniObject3Dを提案する。OmniObject3Dは,大規模で高品質な3Dオブジェクトを持つ大語彙の3Dオブジェクトデータセットである。
190のカテゴリーで6,000のスキャン対象からなり、一般的な2Dデータセットと共通クラスを共有する。
それぞれの3Dオブジェクトは、2Dと3Dの両方のセンサーでキャプチャされ、テクスチャメッシュ、ポイントクラウド、マルチビューレンダリング画像、複数の実写ビデオを提供する。
論文 参考訳(メタデータ) (2023-01-18T18:14:18Z) - Language-Assisted 3D Feature Learning for Semantic Scene Understanding [26.414294993374543]
言語支援型3D特徴学習は、現代のオブジェクト検出とインスタンスセグメンテーションの手法と組み合わせることができる。
3次元言語タスクと3次元言語タスクのベンチマーク実験により,言語支援型3次元特徴学習の有効性が示された。
論文 参考訳(メタデータ) (2022-11-25T13:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。