論文の概要: Patch-Based Spatial Authorship Attribution in Human-Robot Collaborative Paintings
- arxiv url: http://arxiv.org/abs/2602.17030v1
- Date: Thu, 19 Feb 2026 02:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.610002
- Title: Patch-Based Spatial Authorship Attribution in Human-Robot Collaborative Paintings
- Title(参考訳): 人間-ロボット協調絵画におけるパッチによる空間的オーサリングの寄与
- Authors: Eric Chen, Patricia Alves-Oliveira,
- Abstract要約: 本稿では,人間ロボット共同絵画実践における著者帰属のためのパッチベースのフレームワークを提案する。
一般的なフラットベッドスキャナーと1枚のペイントアウトのクロスバリデーションを用いて、この手法は88.8%のパッチレベルの精度を達成している。
将来的には、このフレームワークは、人間とロボットの協力的な絵画に対する著者の貢献を拡大する可能性がある。
- 参考スコア(独自算出の注目度): 3.4167134799510177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As agentic AI becomes increasingly involved in creative production, documenting authorship has become critical for artists, collectors, and legal contexts. We present a patch-based framework for spatial authorship attribution within human-robot collaborative painting practice, demonstrated through a forensic case study of one human artist and one robotic system across 15 abstract paintings. Using commodity flatbed scanners and leave-one-painting-out cross-validation, the approach achieves 88.8% patch-level accuracy (86.7% painting-level via majority vote), outperforming texture-based and pretrained-feature baselines (68.0%-84.7%). For collaborative artworks, where ground truth is inherently ambiguous, we use conditional Shannon entropy to quantify stylistic overlap; manually annotated hybrid regions exhibit 64% higher uncertainty than pure paintings (p=0.003), suggesting the model detects mixed authorship rather than classification failure. The trained model is specific to this human-robot pair but provides a methodological grounding for sample-efficient attribution in data-scarce human-AI creative workflows that, in the future, has the potential to extend authorship attribution to any human-robot collaborative painting.
- Abstract(参考訳): エージェントAIが創造的生産にますます関与するにつれて、著者の文書化はアーティスト、コレクター、法的文脈にとって重要になっている。
本研究では,人間とロボットの協力的絵画実践における空間的オーサシップの帰属に関するパッチベースの枠組みについて,人間アーティスト1名と抽象絵画15点にまたがるロボットシステム1名の法医学的ケーススタディを通して実証した。
一般的なフラットベッドスキャナーと1枚のペイントアウトによるクロスバリデーションを用いて、88.8%のパッチレベルの精度(多数決で86.7%)を達成し、テクスチャベースおよび事前訓練された機能ベースライン(68.0%-84.7%)を上回っている。
手動で注釈付けされたハイブリッド領域は、純粋な絵画(p=0.003)よりも64%高い不確実性を示し、分類失敗よりも混在する著者を検出することを示唆している。
トレーニングされたモデルは、この人間とロボットのペアに特有のものだが、将来は、人間とロボットの協力的な絵画に対する著者の帰属を拡大する可能性を持つ、データスカースな人間とAIの創造ワークフローにおける、サンプル効率の帰属のための方法論的な基盤を提供する。
関連論文リスト
- Beyond Pairwise Comparisons: A Distributional Test of Distinctiveness for Machine-Generated Works in Intellectual Property Law [0.31061678033205636]
本稿では,2つの創造的プロセスが統計的に区別可能な出力分布を生成するかどうかを判断するために,意味埋め込みに基づいて計算された平均誤差に基づく2サンプルテストを提案する。
手書きディジット(制御された画像)、特許抽象化(テキスト)、AI生成アート(現実世界の画像)の3分野にわたるフレームワークを検証する。
以上の結果から,生成モデルが単なる学習データのリグルジエータとして機能する,という見解に反する証拠が得られた。
論文 参考訳(メタデータ) (2026-01-26T05:20:33Z) - Ar2Can: An Architect and an Artist Leveraging a Canvas for Multi-Human Generation [66.43387826787243]
Ar2Canは、マルチヒューマンジェネレーションのためのアイデンティティレンダリングから空間計画を切り離す新しいフレームワークである。
アーキテクトモジュールは構造化されたレイアウトを予測し、各人がどこに現れるかを指定する。
アーティストモジュールは、空間的に接地された顔マッチング報酬によってガイドされたイメージを合成する。
論文 参考訳(メタデータ) (2025-11-27T18:45:23Z) - ArtistAuditor: Auditing Artist Style Pirate in Text-to-Image Generation Models [61.55816738318699]
本稿では,テキスト・画像生成モデルにおける新しいデータ利用監査手法を提案する。
ArtistAuditorは、多彩なスタイルの表現を得るためにスタイル抽出器を使用し、アートワークをアーティストのスタイルのサンプリングとして扱う。
6つのモデルとデータセットの組み合わせによる実験結果は、ArtistAuditorが高いAUC値を達成可能であることを示している。
論文 参考訳(メタデータ) (2025-04-17T16:15:38Z) - Charting the Parrot's Song: A Maximum Mean Discrepancy Approach to Measuring AI Novelty, Originality, and Distinctiveness [0.2209921757303168]
本稿では, 生成過程間の分布差を測定するための, 頑健で定量的な手法を提案する。
ペアワイズな類似性チェックを行うのではなく、出力分布全体を比較することで、私たちのアプローチは創造的なプロセスと直接対比する。
この研究は、裁判所や政策立案者に、AIのノベルティを定量化する計算効率が高く、法的に関係のあるツールを提供する。
論文 参考訳(メタデータ) (2025-04-11T11:15:26Z) - AnomalyPainter: Vision-Language-Diffusion Synergy for Zero-Shot Realistic and Diverse Industrial Anomaly Synthesis [52.081638586098]
AnomalyPainterはVision Language Large Model、Latent Diffusion Model、テクスチャライブラリTex-9Kを相乗化するフレームワークである。
Tex-9Kは75のカテゴリと8,792のテクスチャを含むプロ向けテクスチャライブラリである。
大規模な実験により、AnomalyPainterは現実主義、多様性、一般化において既存の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-10T12:35:35Z) - SAGI: Semantically Aligned and Uncertainty Guided AI Image Inpainting [11.216906046169683]
SAGI-DはAIが生成する塗り絵の最大かつ最も多様なデータセットである。
実験の結果,セマンティックアライメントは画像の品質と美学を著しく改善することがわかった。
SAGI-Dを使っていくつかの画像法医学的アプローチを訓練すると、ドメイン内の検出性能は平均37.4%向上する。
論文 参考訳(メタデータ) (2025-02-10T15:56:28Z) - ArtBrain: An Explainable end-to-end Toolkit for Classification and Attribution of AI-Generated Art and Style [2.7321177315998915]
本稿では,10種類のアートスタイルにまたがる185,015のアートイメージを収録したデータセットであるAI-ArtBenchを紹介する。
125,015点のAI生成画像と6万点の人造アートワークが含まれている。
生成モデルの属性の精度は0.999に達する。
論文 参考訳(メタデータ) (2024-12-02T14:03:50Z) - UniHuman: A Unified Model for Editing Human Images in the Wild [49.896715833075106]
実環境における画像編集の複数の側面に対処する統一モデルUniHumanを提案する。
モデルの生成品質と一般化能力を向上させるために,人間の視覚エンコーダからのガイダンスを利用する。
ユーザスタディでは、UniHumanは平均して77%のケースでユーザに好まれる。
論文 参考訳(メタデータ) (2023-12-22T05:00:30Z) - Measuring the Success of Diffusion Models at Imitating Human Artists [7.007492782620398]
モデルが特定のアーティストを模倣する能力を測定する方法を示す。
コントラスト言語-画像事前訓練(CLIP)エンコーダを用いてゼロショット方式で画像の分類を行う。
また,アーティストの作品のサンプルを,これらの模倣画像と高い統計的信頼性で一致させることができることを示す。
論文 参考訳(メタデータ) (2023-07-08T18:31:25Z) - Learning to Evaluate the Artness of AI-generated Images [64.48229009396186]
アートスコア(ArtScore)は、アーティストによる本物のアートワークと画像がどの程度似ているかを評価するために設計されたメトリクスである。
我々は、写真とアートワークの生成のために事前訓練されたモデルを採用し、一連の混合モデルを生み出した。
このデータセットはニューラルネットワークのトレーニングに使用され、任意の画像の定量化精度レベルを推定する方法を学ぶ。
論文 参考訳(メタデータ) (2023-05-08T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。