論文の概要: Tokenized Model: A Blockchain-Empowered Decentralized Model Ownership
Verification Platform
- arxiv url: http://arxiv.org/abs/2312.00048v1
- Date: Mon, 27 Nov 2023 09:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:42:19.781030
- Title: Tokenized Model: A Blockchain-Empowered Decentralized Model Ownership
Verification Platform
- Title(参考訳): Tokenized Model: ブロックチェーンを活用した分散モデルオーナシップ検証プラットフォーム
- Authors: Yihao Li, Yanyi Lai, Tianchi Liao, Chuan Chen, Zibin Zheng
- Abstract要約: 本稿では、モデル透かし技術とブロックチェーンを組み合わせることにより、統一されたモデル著作権保護プラットフォームを構築することを検討する。
Tokenized Modelと呼ばれる新しいソリューションによって、信頼性の高いオーナシップレコードと検証メカニズムによって、モデルの著作権を保護します。
- 参考スコア(独自算出の注目度): 27.663600307841982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of practical deep learning models like generative AI,
their excellent performance has brought huge economic value. For instance,
ChatGPT has attracted more than 100 million users in three months. Since the
model training requires a lot of data and computing power, a well-performing
deep learning model is behind a huge effort and cost. Facing various model
attacks, unauthorized use and abuse from the network that threaten the
interests of model owners, in addition to considering legal and other
administrative measures, it is equally important to protect the model's
copyright from the technical means. By using the model watermarking technology,
we point out the possibility of building a unified platform for model ownership
verification. Given the application history of blockchain in copyright
verification and the drawbacks of a centralized third-party, this paper
considers combining model watermarking technology and blockchain to build a
unified model copyright protection platform. By a new solution we called
Tokenized Model, it protects the model's copyright by reliable ownership record
and verification mechanism. It also promotes the financial value of model by
constructing the model's transaction process and contribution shares of a
model. In the typical case study, we also study the various performance under
usual scenario to verify the effectiveness of this platform.
- Abstract(参考訳): 生成AIのような実用的なディープラーニングモデルの開発により、その優れたパフォーマンスは大きな経済的価値をもたらしました。
例えば、ChatGPTは3ヶ月で1億人以上のユーザーを獲得した。
モデルトレーニングは大量のデータと計算能力を必要とするため、優れたディープラーニングモデルは大きな努力とコストの背後にあります。
モデル所有者の利益を脅かすネットワークからの不正使用や乱用といった様々なモデル攻撃に直面し、法的な措置やその他の管理措置を考えることに加えて、モデルの著作権を技術的手段から守ることも同様に重要である。
モデル透かし技術を利用することで,モデル所有検証のための統一プラットフォームを構築する可能性を指摘する。
著作権検証におけるブロックチェーンの適用履歴と、集中型サードパーティの欠点を踏まえ、モデルウォーターマーキング技術とブロックチェーンを組み合わせて、統一されたモデル著作権保護プラットフォームを構築することを検討する。
Tokenized Modelと呼ばれる新しいソリューションによって、信頼性の高いオーナシップレコードと検証メカニズムによって、モデルの著作権を保護します。
また、モデルのトランザクションプロセスとモデルの貢献共有を構築することにより、モデルの財務的価値を促進する。
典型的なケーススタディでは,このプラットフォームの有効性を検証するために,通常のシナリオ下での各種性能についても検討する。
関連論文リスト
- Mitigating Downstream Model Risks via Model Provenance [30.083382916838623]
モデルレコードの作成を簡単にするための機械可読モデル仕様フォーマットを提案する。
私たちのソリューションは、アップストリームモデルとダウンストリームモデルの関係を明確にトレースし、透明性とトレーサビリティを向上します。
この概念実証の目的は、基礎モデルを管理するための新しい標準を設定し、イノベーションと責任あるモデル管理のギャップを埋めることである。
論文 参考訳(メタデータ) (2024-10-03T05:52:15Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Have You Merged My Model? On The Robustness of Large Language Model IP Protection Methods Against Model Merging [25.327483618051378]
モデル統合シナリオにおけるIP保護手法の堅牢性に関する最初の研究を行う。
実験結果から,現在のLarge Language Model (LLM) の透かし技術は統合されたモデルでは生き残れないことが示唆された。
本研究の目的は,モデルIP保護手法の堅牢性評価において,モデルマージが不可欠であることを示すことである。
論文 参考訳(メタデータ) (2024-04-08T04:30:33Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。