論文の概要: CNN based Cuneiform Sign Detection Learned from Annotated 3D Renderings
and Mapped Photographs with Illumination Augmentation
- arxiv url: http://arxiv.org/abs/2308.11277v1
- Date: Tue, 22 Aug 2023 08:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 18:29:53.348987
- Title: CNN based Cuneiform Sign Detection Learned from Annotated 3D Renderings
and Mapped Photographs with Illumination Augmentation
- Title(参考訳): 注釈付き3次元レンダリングとイルミネーションによる地図写真から学ぶCNNによるCuneiform Sign Detection
- Authors: Ernst St\"otzner, Timo Homburg and Hubert Mara
- Abstract要約: 粘土板に3Dスクリプトをインプリントしたキュニフォームスクリプトを処理するためのデジタルツールを開発した。
HeiCuBeDaとMaiCuBeDaのデータセットは約500の注釈付きタブレットで構成されている。
我々はGigaMeshのMSII (curvature)ベースのレンダリング、Pong-shaded 3Dモデル、写真、照明強化などの画像データを利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Motivated by the challenges of the Digital Ancient Near Eastern Studies
(DANES) community, we develop digital tools for processing cuneiform script
being a 3D script imprinted into clay tablets used for more than three
millennia and at least eight major languages. It consists of thousands of
characters that have changed over time and space. Photographs are the most
common representations usable for machine learning, while ink drawings are
prone to interpretation. Best suited 3D datasets that are becoming available.
We created and used the HeiCuBeDa and MaiCuBeDa datasets, which consist of
around 500 annotated tablets. For our novel OCR-like approach to mixed image
data, we provide an additional mapping tool for transferring annotations
between 3D renderings and photographs. Our sign localization uses a RepPoints
detector to predict the locations of characters as bounding boxes. We use image
data from GigaMesh's MSII (curvature, see https://gigamesh.eu) based rendering,
Phong-shaded 3D models, and photographs as well as illumination augmentation.
The results show that using rendered 3D images for sign detection performs
better than other work on photographs. In addition, our approach gives
reasonably good results for photographs only, while it is best used for mixed
datasets. More importantly, the Phong renderings, and especially the MSII
renderings, improve the results on photographs, which is the largest dataset on
a global scale.
- Abstract(参考訳): デジタル古代近東研究(DANES)コミュニティの課題に触発され,3千年以上,少なくとも8つの主要言語で使用されている粘土板に3Dスクリプトをインプリントしたキュニフォームスクリプトを処理するデジタルツールを開発した。
時間と空間によって変化する何千ものキャラクターで構成されている。
写真は機械学習に使える最も一般的な表現であり、インク描画は解釈しやすい。
利用可能な最も適した3dデータセット。
私たちは約500の注釈付きタブレットからなるHeiCuBeDaとMaiCuBeDaのデータセットを作成し、使用しました。
混合画像データに対する新しいOCRライクなアプローチとして、3Dレンダリングと写真の間でアノテーションを転送するためのマッピングツールを提供する。
我々のサインローカライゼーションはRepPoints検出器を使って文字の位置をバウンディングボックスとして予測する。
私たちは、GigaMeshのMSII(曲率、https://gigamesh.eu)ベースのレンダリング、Pong-shaded 3Dモデル、写真、照明強化などの画像データを使用します。
その結果,手話検出にレンダリングされた3D画像は,写真上での他の作業よりも優れていた。
さらに,本手法は写真のみに対して妥当な結果を与えるが,混合データセットには最適である。
さらに重要なことに、フォンのレンダリング、特にmsiiレンダリングは、世界規模で最大のデータセットである写真の結果を改善します。
関連論文リスト
- EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - NeRF-MAE: Masked AutoEncoders for Self-Supervised 3D Representation Learning for Neural Radiance Fields [57.617972778377215]
提案手法は,RGB画像から有効な3D表現を生成する方法を示す。
我々は、この表現を、提案した擬似RGBデータに基づいて、180万枚以上の画像で事前訓練する。
我々は,NeRFの自己教師型プレトレーニングであるNeRF-MAE(NeRF-MAE)を目覚ましいスケールで実施し,様々な3Dタスクの性能向上を実現した。
論文 参考訳(メタデータ) (2024-04-01T17:59:55Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - LucidDreamer: Domain-free Generation of 3D Gaussian Splatting Scenes [52.31402192831474]
しかし、既存の3Dシーン生成モデルは、ターゲットシーンを特定のドメインに制限する。
ドメインフリーシーン生成パイプラインであるLucidDreamerを提案する。
LucidDreamerは、ターゲットシーンのドメインに制約がなく、高詳細なガウススプラットを生成する。
論文 参考訳(メタデータ) (2023-11-22T13:27:34Z) - PREIM3D: 3D Consistent Precise Image Attribute Editing from a Single
Image [23.06474962139909]
本稿では,3次元画像属性編集問題について検討する。
最近の方法では、共有エンコーダを訓練して3Dジェネレータの潜伏空間に画像をマッピングすることで、この問題を解決している。
本稿では,3次元の整合性を維持するための2つの新しい手法,交互トレーニングスキームと多視点アイデンティティ損失を提案する。
論文 参考訳(メタデータ) (2023-04-20T12:33:56Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - RaBit: Parametric Modeling of 3D Biped Cartoon Characters with a
Topological-consistent Dataset [19.494054103293116]
3DBiCarは3D2Dアニメキャラクタの最初の大規模データセットであり、RaBitは対応するパラメトリックモデルである。
RaBitはSMPLのような線形ブレンド形状モデルとStyleGANベースのニューラルUVテクスチャ生成器で構築されており、形状、ポーズ、テクスチャを同時に表現している。
シングルビュー再構成やスケッチベースモデリング,3Dアニメーションなど,さまざまなアプリケーションが実施されている。
論文 参考訳(メタデータ) (2023-03-22T13:46:15Z) - Real-time Image Enhancer via Learnable Spatial-aware 3D Lookup Tables [12.4260963890153]
学習可能な空間認識型3次元ルックアップテーブル(LUT)による新しいリアルタイム画像強調器を提案する。
空間認識型3D LUTを学習し、上記の重みに応じてエンドツーエンドに融合する。
我々のモデルは、主観的かつ客観的に、公開データセット上でSOTA画像強調法より優れている。
論文 参考訳(メタデータ) (2021-08-19T14:04:59Z) - Deep 3D-to-2D Watermarking: Embedding Messages in 3D Meshes and
Extracting Them from 2D Renderings [20.436426883541124]
従来の3D透かしアプローチは通常、メッセージを3Dメッシュに埋め込み、その後、歪んだ/未知の透かし付き3Dメッシュから直接メッセージを取得します。
1) メッシュ形状とテクスチャの両方にメッセージを埋め込むエンコーダ, 2) 異なるカメラアングルから様々な照明条件下で透かし付き3dオブジェクトを描画する微分可能なエンコーダ, 3) 2次元レンダリング画像からメッセージを復元するデコーダ,という,新しいエンドツーエンド学習フレームワークを導入する。
論文 参考訳(メタデータ) (2021-04-27T19:51:39Z) - Learning Image-adaptive 3D Lookup Tables for High Performance Photo
Enhancement in Real-time [33.93249921871407]
本稿では,画像適応型3次元ルックアップテーブル(3D LUT)を学習し,高速でロバストな画像強調を実現する。
アノテーション付きデータからペアワイドやアンペアラーニングを用いて3D LUTを学習する。
我々は、複数のベース3D LUTと小さな畳み込みニューラルネットワーク(CNN)をエンドツーエンドで同時に学習する。
論文 参考訳(メタデータ) (2020-09-30T06:34:57Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。