論文の概要: DECORAIT -- DECentralized Opt-in/out Registry for AI Training
- arxiv url: http://arxiv.org/abs/2309.14400v1
- Date: Mon, 25 Sep 2023 16:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:38:36.345434
- Title: DECORAIT -- DECentralized Opt-in/out Registry for AI Training
- Title(参考訳): DECORAIT -- AIトレーニングのためのdeCentralized Opt-in/out Registry
- Authors: Kar Balan, Alex Black, Simon Jenni, Andrew Gilbert, Andy Parsons, John
Collomosse
- Abstract要約: 私たちは、コンテンツクリエーターがAIトレーニングをオプトインまたはアウトする権利を主張できる分散レジストリであるDECORAITを紹介します。
GenAIは、公開ソースから抽出された大量のデータに基づいてトレーニングされたAIモデルを使用して、画像の合成を可能にする。
- 参考スコア(独自算出の注目度): 20.683704089165406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DECORAIT; a decentralized registry through which content creators
may assert their right to opt in or out of AI training as well as receive
reward for their contributions. Generative AI (GenAI) enables images to be
synthesized using AI models trained on vast amounts of data scraped from public
sources. Model and content creators who may wish to share their work openly
without sanctioning its use for training are thus presented with a data
governance challenge. Further, establishing the provenance of GenAI training
data is important to creatives to ensure fair recognition and reward for their
such use. We report a prototype of DECORAIT, which explores hierarchical
clustering and a combination of on/off-chain storage to create a scalable
decentralized registry to trace the provenance of GenAI training data in order
to determine training consent and reward creatives who contribute that data.
DECORAIT combines distributed ledger technology (DLT) with visual
fingerprinting, leveraging the emerging C2PA (Coalition for Content Provenance
and Authenticity) standard to create a secure, open registry through which
creatives may express consent and data ownership for GenAI.
- Abstract(参考訳): 我々は、コンテンツクリエーターがAIトレーニングをオプトインまたはアウトし、貢献に対して報酬を受け取る権利を主張する、分散レジストリであるDECORAITを提示する。
Generative AI(GenAI)は、公開ソースから抽出された大量のデータに基づいてトレーニングされたAIモデルを使用して、画像の合成を可能にする。
トレーニングの使用を許可することなく、自分の作品をオープンに共有したいモデルやコンテンツのクリエーターは、データガバナンスの課題を提示される。
また、その利用に対する公正な認識と報酬を確保するためには、創造者にとってGenAIトレーニングデータの確立が重要である。
我々は、階層的なクラスタリングとオン/オフチェーンストレージの組み合わせを探求し、GenAIトレーニングデータの実績をトレースするスケーラブルな分散レジストリを作成し、トレーニング同意を決定し、そのデータに貢献するクリエイティブに報いるDECORAITのプロトタイプを報告する。
DECORAITは分散台帳技術(DLT)とビジュアルフィンガープリントを統合し、新たなC2PA(Coalition for Content Provenance and Authenticity)標準を活用して、クリエイティブがGenAIの同意とデータ所有権を表現できるセキュアでオープンなレジストリを作成する。
関連論文リスト
- Generative AI like ChatGPT in Blockchain Federated Learning: use cases, opportunities and future [4.497001527881303]
本研究は、フェデレーション学習における生成AIの潜在的な統合について検討する。
GAN(generative adversarial Network)とVAE(variantal autoencoder)
合成データの生成は、限られたデータ可用性に関連する課題に、フェデレートされた学習を支援する。
論文 参考訳(メタデータ) (2024-07-25T19:43:49Z) - An Economic Solution to Copyright Challenges of Generative AI [35.37023083413299]
生成人工知能システムは、新しいテキスト、画像、ビデオ、その他のメディアを生成するために訓練されている。
このようなシステムは、データコントリビュータのトレーニングに関する著作権権に侵害されるのではないか、という懸念が高まっている。
本稿では,AI生成コンテンツ作成への貢献に比例して著作権所有者を補償する枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:10:38Z) - Data Equity: Foundational Concepts for Generative AI [0.0]
GenAIは、デジタルとソーシャルのイノベーションを促進する大きな可能性を約束する。
GenAIは、技術へのアクセスと利用を民主化する可能性がある。
しかし、未確認のままでは、不平等が深まる可能性がある。
論文 参考訳(メタデータ) (2023-10-27T05:19:31Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - EKILA: Synthetic Media Provenance and Attribution for Generative Art [18.02055922311379]
EKILAは、創造者がジェネレーティブAI(GenAI)への貢献に対して、認識と報酬を受けることを可能にする分散型フレームワークである。
EKILAは、堅牢な視覚的帰属技術を提案し、これを新しいコンテンツ証明標準(C2PA)と組み合わせている。
EKILAは、権利のトークン化表現を導入するために、NFT(Non-fungible token)エコシステムを拡張している。
論文 参考訳(メタデータ) (2023-04-10T15:11:26Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Data-centric AI: Perspectives and Challenges [51.70828802140165]
データ中心AI(DCAI)は、モデル進歩からデータ品質と信頼性の確保への根本的なシフトを提唱している。
データ開発、推論データ開発、データメンテナンスの3つの一般的なミッションをまとめます。
論文 参考訳(メタデータ) (2023-01-12T05:28:59Z) - Providing Assurance and Scrutability on Shared Data and Machine Learning
Models with Verifiable Credentials [0.0]
実践者は、関連する信頼できるデータを使用することにAI開発者を頼っている。
科学者は、データリソースの品質を証明する署名された認証情報を発行できます。
BOMは、AIシステムのサプライチェーンの追跡可能な記録を提供します。
論文 参考訳(メタデータ) (2021-05-13T15:58:05Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。