論文の概要: Randomization Techniques to Mitigate the Risk of Copyright Infringement
- arxiv url: http://arxiv.org/abs/2408.13278v1
- Date: Wed, 21 Aug 2024 20:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 20:20:40.592902
- Title: Randomization Techniques to Mitigate the Risk of Copyright Infringement
- Title(参考訳): 著作権侵害のリスク軽減のためのランダム化手法
- Authors: Wei-Ning Chen, Peter Kairouz, Sewoong Oh, Zheng Xu,
- Abstract要約: 著作権保護の現在の慣行を補完する潜在的なランダム化手法について検討する。
これは、著作権の先例において実質的な類似性を決定する規則の固有の曖昧さによって動機付けられている。
差分プライバシーのような同様にランダム化されたアプローチは、プライバシーリスクを軽減することに成功している。
- 参考スコア(独自算出の注目度): 48.75580082851766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate potential randomization approaches that can complement current practices of input-based methods (such as licensing data and prompt filtering) and output-based methods (such as recitation checker, license checker, and model-based similarity score) for copyright protection. This is motivated by the inherent ambiguity of the rules that determine substantial similarity in copyright precedents. Given that there is no quantifiable measure of substantial similarity that is agreed upon, complementary approaches can potentially further decrease liability. Similar randomized approaches, such as differential privacy, have been successful in mitigating privacy risks. This document focuses on the technical and research perspective on mitigating copyright violation and hence is not confidential. After investigating potential solutions and running numerical experiments, we concluded that using the notion of Near Access-Freeness (NAF) to measure the degree of substantial similarity is challenging, and the standard approach of training a Differentially Private (DP) model costs significantly when used to ensure NAF. Alternative approaches, such as retrieval models, might provide a more controllable scheme for mitigating substantial similarity.
- Abstract(参考訳): 本稿では、著作権保護のための入力ベース手法(ライセンスデータやプロンプトフィルタリングなど)や出力ベース手法(リサイクリングチェッカー、ライセンスチェッカー、モデルベース類似度スコアなど)の現在の実践を補完する潜在的なランダム化手法について検討する。
これは、著作権の先例において実質的な類似性を決定する規則の固有の曖昧さによって動機付けられている。
合意された相当な類似性の定量的な尺度が存在しないことを考えると、補完的なアプローチは負債をさらに減少させる可能性がある。
差分プライバシーのような同様にランダム化されたアプローチは、プライバシーリスクを軽減することに成功している。
本文書は著作権侵害の緩和に関する技術的・研究的な視点に焦点を当てているため、機密性はない。
潜在的な解決策を調査し,数値実験を行った結果,NAF(Near Access-Freeness)の概念を用いて実質的な類似度を測定することは困難であり,NAFを確実にするために差分プライベート(DP)モデルをトレーニングする標準的なアプローチは著しくコストがかかると結論付けた。
検索モデルのような別のアプローチは、相当な類似性を緩和するためのより制御可能なスキームを提供するかもしれない。
関連論文リスト
- Probabilistic Analysis of Copyright Disputes and Generative AI Safety [0.0]
この論文は、特に「逆比則」に重点を置き、重要な顕在的原則の構造化分析を提供する。
本稿では、生成AIによる著作権リスクの増大について検討し、生成モデルによる著作権物質へのアクセスが侵害のリスクを高めることを明らかにする。
この分析により、Near Access-Free (NAF) 条件はいくつかの侵害リスクを緩和するが、その正当性と有効性は特定の文脈で疑わしいことが判明した。
論文 参考訳(メタデータ) (2024-10-01T08:05:19Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Sample-efficient neural likelihood-free Bayesian inference of implicit HMMs [1.8843687952462742]
暗黙的HMMの高次元隠蔽状態を推定するための, 試料効率の低い新しい手法を提案する。
提案手法は,マルコフ特性を利用した自己回帰フローを用いて,隠れ状態の難解な後部分布を直接学習することに依存する。
論文 参考訳(メタデータ) (2024-05-02T21:13:34Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Derandomized Novelty Detection with FDR Control via Conformal E-values [20.864605211132663]
p-値の代わりに適切な共形e-値を活用することにより、共形推論をより安定にすることを提案する。
提案手法は, 標準共形推論と比較して, 電力損失が少なく, ランダム性を低減できることを示す。
論文 参考訳(メタデータ) (2023-02-14T19:21:44Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Risk Consistent Multi-Class Learning from Label Proportions [64.0125322353281]
本研究は,バッグにトレーニングインスタンスを提供するMCLLP設定によるマルチクラス学習に対処する。
既存のほとんどのMCLLPメソッドは、インスタンスの予測や擬似ラベルの割り当てにバッグワイズな制約を課している。
経験的リスク最小化フレームワークを用いたリスク一貫性手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T03:49:04Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。