論文の概要: EKILA: Synthetic Media Provenance and Attribution for Generative Art
- arxiv url: http://arxiv.org/abs/2304.04639v1
- Date: Mon, 10 Apr 2023 15:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:42:30.872095
- Title: EKILA: Synthetic Media Provenance and Attribution for Generative Art
- Title(参考訳): EKILA: ジェネレーティブアートのための合成メディアの創出と貢献
- Authors: Kar Balan, Shruti Agarwal, Simon Jenni, Andy Parsons, Andrew Gilbert,
John Collomosse
- Abstract要約: EKILAは、創造者がジェネレーティブAI(GenAI)への貢献に対して、認識と報酬を受けることを可能にする分散型フレームワークである。
EKILAは、堅牢な視覚的帰属技術を提案し、これを新しいコンテンツ証明標準(C2PA)と組み合わせている。
EKILAは、権利のトークン化表現を導入するために、NFT(Non-fungible token)エコシステムを拡張している。
- 参考スコア(独自算出の注目度): 18.02055922311379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present EKILA; a decentralized framework that enables creatives to receive
recognition and reward for their contributions to generative AI (GenAI). EKILA
proposes a robust visual attribution technique and combines this with an
emerging content provenance standard (C2PA) to address the problem of synthetic
image provenance -- determining the generative model and training data
responsible for an AI-generated image. Furthermore, EKILA extends the
non-fungible token (NFT) ecosystem to introduce a tokenized representation for
rights, enabling a triangular relationship between the asset's Ownership,
Rights, and Attribution (ORA). Leveraging the ORA relationship enables creators
to express agency over training consent and, through our attribution model, to
receive apportioned credit, including royalty payments for the use of their
assets in GenAI.
- Abstract(参考訳): EKILAは、創造者が生成AI(GenAI)への貢献に対して認識と報酬を受けることを可能にする分散型フレームワークである。
EKILAは、堅牢な視覚的帰属技術を提案し、AI生成画像に責任のある生成モデルとトレーニングデータを決定する、合成画像証明の問題に対処する、新たなコンテンツ証明標準(C2PA)とこれを組み合わせている。
さらに、EKILAはNFT(Non-fungible token)エコシステムを拡張して、権利のトークン化表現を導入し、資産の所有者、権利、および属性(ORA)間の三角関係を可能にする。
ORA関係の活用により、クリエーターはトレーニング同意よりも代理店を表現でき、私たちの帰属モデルを通じて、GenAIにおける資産の使用に対するロイヤリティ支払いを含む認定クレジットを受け取ることができる。
関連論文リスト
- Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - An Economic Solution to Copyright Challenges of Generative AI [35.37023083413299]
生成人工知能システムは、新しいテキスト、画像、ビデオ、その他のメディアを生成するために訓練されている。
このようなシステムは、データコントリビュータのトレーニングに関する著作権権に侵害されるのではないか、という懸念が高まっている。
本稿では,AI生成コンテンツ作成への貢献に比例して著作権所有者を補償する枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:10:38Z) - Ethical-Lens: Curbing Malicious Usages of Open-Source Text-to-Image Models [51.69735366140249]
我々はEthical-Lensというフレームワークを紹介した。
Ethical-Lensは、毒性とバイアス次元をまたいだテキストと画像のモデルにおける価値アライメントを保証する。
実験の結果、Ethical-Lensは商業モデルに匹敵するレベルまでアライメント能力を向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T11:38:25Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
アーティストスタイルの複製と漫画IPレクリエーションの実験は、著作権プラグインの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Not All Similarities Are Created Equal: Leveraging Data-Driven Biases to Inform GenAI Copyright Disputes [20.237329910319293]
本稿では,GenAIモデルの学習能力を利用した著作権法解析手法を提案する。
我々は、GenAIによって作成された作品の汎用性を特定するためのデータ駆動型アプローチを提案する。
著作権法における表現的汎用性を測定することの潜在的意味は深い。
論文 参考訳(メタデータ) (2024-03-26T13:32:32Z) - Data Equity: Foundational Concepts for Generative AI [0.0]
GenAIは、デジタルとソーシャルのイノベーションを促進する大きな可能性を約束する。
GenAIは、技術へのアクセスと利用を民主化する可能性がある。
しかし、未確認のままでは、不平等が深まる可能性がある。
論文 参考訳(メタデータ) (2023-10-27T05:19:31Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - DECORAIT -- DECentralized Opt-in/out Registry for AI Training [20.683704089165406]
私たちは、コンテンツクリエーターがAIトレーニングをオプトインまたはアウトする権利を主張できる分散レジストリであるDECORAITを紹介します。
GenAIは、公開ソースから抽出された大量のデータに基づいてトレーニングされたAIモデルを使用して、画像の合成を可能にする。
論文 参考訳(メタデータ) (2023-09-25T16:19:35Z) - Semantic Communications for Artificial Intelligence Generated Content
(AIGC) Toward Effective Content Creation [75.73229320559996]
本稿では,AIGCとSemComの統合の概念モデルを開発する。
AIGC技術を利用した新しいフレームワークが,意味情報のためのエンコーダおよびデコーダとして提案されている。
このフレームワークは、生成されたさまざまなタイプのコンテンツ、要求される品質、活用される意味情報に適応することができる。
論文 参考訳(メタデータ) (2023-08-09T13:17:21Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。