論文の概要: Dare to Plagiarize? Plagiarized Painting Recognition and Retrieval
- arxiv url: http://arxiv.org/abs/2506.23132v1
- Date: Sun, 29 Jun 2025 07:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.731059
- Title: Dare to Plagiarize? Plagiarized Painting Recognition and Retrieval
- Title(参考訳): プラジャイズへの道のり : プラジャイズド絵画認識と検索
- Authors: Sophie Zhou, Shu Kong,
- Abstract要約: 我々は,画像の収集と生成AIを用いた画像の合成によりデータセットを構築した。
まず、視覚基礎モデルDINOv2のオフザシェルフ機能を用いてベースラインアプローチを確立し、データベース内の最も類似した画像を検索する。
データベースにサンプルした正と負のサンプルペアを用いて,DINOv2を計量学習損失で精査した。
- 参考スコア(独自算出の注目度): 8.670873561640903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Art plagiarism detection plays a crucial role in protecting artists' copyrights and intellectual property, yet it remains a challenging problem in forensic analysis. In this paper, we address the task of recognizing plagiarized paintings and explaining the detected plagarisms by retrieving visually similar authentic artworks. To support this study, we construct a dataset by collecting painting photos and synthesizing plagiarized versions using generative AI, tailored to specific artists' styles. We first establish a baseline approach using off-the-shelf features from the visual foundation model DINOv2 to retrieve the most similar images in the database and classify plagiarism based on a similarity threshold. Surprisingly, this non-learned method achieves a high recognition accuracy of 97.2\% but suffers from low retrieval precision 29.0\% average precision (AP). To improve retrieval quality, we finetune DINOv2 with a metric learning loss using positive and negative sample pairs sampled in the database. The finetuned model greatly improves retrieval performance by 12\% AP over the baseline, though it unexpectedly results in a lower recognition accuracy (92.7\%). We conclude with insightful discussions and outline directions for future research.
- Abstract(参考訳): 美術盗作検出は、芸術家の著作権と知的財産を保護する上で重要な役割を担っているが、法医学的分析において難しい問題である。
本稿では,視覚的に類似した絵画を検索することで,絵画の認識と検出されたプラガニズムの説明を行う。
そこで本研究では,絵画画像の収集と,特定のアーティストのスタイルに合わせた生成AIを用いた盗作版を合成することで,データセットを構築した。
まず,視覚基礎モデルDINOv2のオフ・ザ・シェルフ特徴を用いたベースラインアプローチを構築し,データベース内の最も類似した画像を検索し,類似性しきい値に基づいてプラジャリズムを分類する。
驚くべきことに、この非学習法は97.2\%の高い認識精度を達成するが、検索精度が低い29.0\%の平均精度(AP)に悩まされている。
検索精度を向上させるため,データベースにサンプリングした正と負のサンプルペアを用いて,DINOv2を計量学習損失で微調整する。
微調整されたモデルでは、ベースライン上での12%のAPによる検索性能が大幅に向上するが、予想外の認識精度(92.7\%)が低下する。
我々は、洞察に富んだ議論を締めくくり、今後の研究の方向性を概説する。
関連論文リスト
- TokBench: Evaluating Your Visual Tokenizer before Visual Generation [75.38270351179018]
さまざまな画像トークンやVAEに対して,テキストと顔の復元品質をさまざまな尺度で分析する。
以上の結果から, 現代の視覚トークン化器は, 特に小規模では, 細粒度保存に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-23T17:52:16Z) - CopyBench: Measuring Literal and Non-Literal Reproduction of Copyright-Protected Text in Language Model Generation [132.00910067533982]
LM世代におけるリテラルコピーと非リテラルコピーの両方を測定するために設計されたベンチマークであるCopyBenchを紹介する。
リテラル複写は比較的稀であるが、イベント複写と文字複写という2種類の非リテラル複写は、7Bパラメータのモデルでも発生する。
論文 参考訳(メタデータ) (2024-07-09T17:58:18Z) - BERT-Enhanced Retrieval Tool for Homework Plagiarism Detection System [0.0]
GPT-3.5をベースとして,32,927対のテキストプラギアリズム検出データセットを生成する,プラギアライズされたテキストデータ生成手法を提案する。
また,BERT を用いた Faiss に基づく盗作識別手法を提案する。
このモデルの性能は, 98.86%, 98.90%, 98.86%, 0.9888, 精度, 精度, リコール, F1スコアなど, 様々な指標において他のモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-04-01T12:20:34Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Text Similarity from Image Contents using Statistical and Semantic
Analysis Techniques [0.0]
画像コンテンツプラジャリズム検出(ICPD)は,高度な画像コンテンツ処理を利用して,プラジャリズムの事例を特定することで重要になっている。
本稿では,図形,図形,表などの画像の盗作形態のコンテンツを検出するために実装されている。
JaccardやCosineといった統計アルゴリズムと共に、LSA、BERTのような意味論的アルゴリズムを導入し、WordNetは効率的で正確な盗作行為を検出するのに優れていた。
論文 参考訳(メタデータ) (2023-08-24T15:06:04Z) - Whodunit? Learning to Contrast for Authorship Attribution [22.37948005237967]
著者の属性は、与えられたテキストの著者を特定するタスクである。
コントラスト学習と教師あり学習を組み合わせて,事前学習した言語表現を微調整する。
コントラXは、複数の人間と機械のオーサシップ属性のベンチマークで最先端の手法を推し進めていることを示す。
論文 参考訳(メタデータ) (2022-09-23T23:45:08Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - A Replication Study of Dense Passage Retriever [32.192420072129636]
Karpukhinらによって提案された高密度通過レトリバー(DPR)技術について研究する。
(2020) エンドツーエンドのオープンドメイン質問応答。
本稿では,著者らによるモデルチェックポイントから本研究の再現性について検討する。
私たちは、オリジナルの作業とまったく同じモデルを使って、エンドツーエンドの質問応答の有効性を改善することができます。
論文 参考訳(メタデータ) (2021-04-12T18:10:39Z) - Unsupervised Landmark Learning from Unpaired Data [117.81440795184587]
教師なしランドマーク学習の最近の試みは、外観は似ているがポーズでは異なる合成画像対を活用する。
本稿では,2回スワッピング・リコンストラクション・ストラテジーを適用して最終監視を行うクロスイメージ・サイクル整合性フレームワークを提案する。
提案するフレームワークは,強いベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-06-29T13:57:20Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。