論文の概要: From Coin to Data: The Impact of Object Detection on Digital Numismatics
- arxiv url: http://arxiv.org/abs/2412.19091v1
- Date: Thu, 26 Dec 2024 07:05:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:30.726112
- Title: From Coin to Data: The Impact of Object Detection on Digital Numismatics
- Title(参考訳): コインからデータへ:物体検出がデジタル・ナミスティックスに与える影響
- Authors: Rafael Cabral, Maria De Iorio, Andrew Harris,
- Abstract要約: 画像記述とテキスト記述の両方を用いて、特定のコインの特徴を識別・分類するための柔軟なフレームワークを開発する。
以上の結果から,より大規模なCLIPモデルの複雑な画像検出における優れた性能が示された。
低品質データセットにおける類似度スコアの信頼性を高めるための統計的キャリブレーション機構を提案する。
- 参考スコア(独自算出の注目度): 0.018206461789819068
- License:
- Abstract: In this work we investigate the application of advanced object detection techniques to digital numismatics, focussing on the analysis of historical coins. Leveraging models such as Contrastive Language-Image Pre-training (CLIP), we develop a flexible framework for identifying and classifying specific coin features using both image and textual descriptions. By examining two distinct datasets, modern Russian coins featuring intricate "Saint George and the Dragon" designs and degraded 1st millennium AD Southeast Asian coins bearing Hindu-Buddhist symbols, we evaluate the efficacy of different detection algorithms in search and classification tasks. Our results demonstrate the superior performance of larger CLIP models in detecting complex imagery, while traditional methods excel in identifying simple geometric patterns. Additionally, we propose a statistical calibration mechanism to enhance the reliability of similarity scores in low-quality datasets. This work highlights the transformative potential of integrating state-of-the-art object detection into digital numismatics, enabling more scalable, precise, and efficient analysis of historical artifacts. These advancements pave the way for new methodologies in cultural heritage research, artefact provenance studies, and the detection of forgeries.
- Abstract(参考訳): 本研究では,デジタル数値学への高度な物体検出技術の適用について検討し,歴史的硬貨の分析に焦点をあてる。
Contrastive Language-Image Pre-Training (CLIP) などのモデルを活用し,画像記述とテキスト記述の両方を用いて,特定のコインの特徴を識別・分類するための柔軟なフレームワークを開発する。
2つの異なるデータセット、複雑な「聖ジョージ・アンド・ザ・ドラゴン」を特徴とする近代ロシアの硬貨、ヒンドゥー・ブッディズムのシンボルを具備した第1千年紀東南アジアの硬貨を調査し、探索・分類作業における異なる検出アルゴリズムの有効性を評価した。
以上の結果から,より大規模なCLIPモデルの複雑な画像検出における優れた性能を示す一方,従来の手法は単純な幾何学的パターンの同定に優れていた。
さらに,低品質データセットにおける類似度スコアの信頼性を高めるための統計的キャリブレーション機構を提案する。
この研究は、最先端のオブジェクト検出をデジタル数値学に統合し、よりスケーラブルで正確で効率的な歴史的アーティファクトの分析を可能にする、変革的な可能性を強調している。
これらの進歩は、文化遺産研究、アーティファクト・プロヴァンス研究、偽造品の検出における新しい方法論の道を開いた。
関連論文リスト
- Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Towards Consistent Object Detection via LiDAR-Camera Synergy [17.665362927472973]
物体の位置を点雲と画像の両方で検出できる既存のモデルは存在しない。
本稿では,エンドツーエンドの一貫性オブジェクト検出(COD)アルゴリズムフレームワークを提案する。
本稿では,点雲と画像間の物体相関の精度を評価するために,新しい評価指標である一貫性精度(Consistency Precision)を提案する。
論文 参考訳(メタデータ) (2024-05-02T13:04:26Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Enhancing Object Detection in Ancient Documents with Synthetic Data
Generation and Transformer-Based Models [0.4125187280299248]
本研究は, 偽陽性を低減し, 精度を向上させることによって, 古文書における物体検出の精度を高めることを目的とする。
本稿では,計算メディエーションによる合成データセットの作成を含む手法を提案する。
我々のアプローチには、オブジェクトをコンポーネント部品に関連付けることや、異なるシンボルと文書要素を識別するための視覚的特徴マップの導入が含まれます。
論文 参考訳(メタデータ) (2023-07-29T15:29:25Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z) - Spatial-Temporal Alignment Network for Action Recognition and Detection [80.19235282200697]
本稿では,行動認識と検出を支援する視点不変の特徴表現を導入する方法について検討する。
本稿では,行動認識と行動検出のための幾何学的不変表現の学習を目的とした,空間時間アライメントネットワーク(STAN)を提案する。
我々は、AVA、Kinetics-400、AVA-Kinetics、Charades、Charades-EgoのデータセットでSTANモデルを広範囲にテストした。
論文 参考訳(メタデータ) (2020-12-04T06:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。