論文の概要: Whose Text Is It Anyway? Exploring BigCode, Intellectual Property, and
Ethics
- arxiv url: http://arxiv.org/abs/2304.02839v1
- Date: Thu, 6 Apr 2023 03:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:23:27.698299
- Title: Whose Text Is It Anyway? Exploring BigCode, Intellectual Property, and
Ethics
- Title(参考訳): 誰のテキストですか?
bigcode、知的財産、倫理を探求する
- Authors: Madiha Zahrah Choksi, and David Goedicke
- Abstract要約: 本稿では,大規模言語モデル(LLM)の学習に用いるオープンデータセットの著作権権について検討する。
我々の論文は、オープンデータセットでトレーニングされたLCMは、どのようにして使用済みデータの著作権上の利益を回避できるのか、と問う。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Intelligent or generative writing tools rely on large language models that
recognize, summarize, translate, and predict content. This position paper
probes the copyright interests of open data sets used to train large language
models (LLMs). Our paper asks, how do LLMs trained on open data sets circumvent
the copyright interests of the used data? We start by defining software
copyright and tracing its history. We rely on GitHub Copilot as a modern case
study challenging software copyright. Our conclusion outlines obstacles that
generative writing assistants create for copyright, and offers a practical road
map for copyright analysis for developers, software law experts, and general
users to consider in the context of intelligent LLM-powered writing tools.
- Abstract(参考訳): 知的または生成的記述ツールは、コンテンツを認識し、要約し、翻訳し、予測する大きな言語モデルに依存している。
本稿では,大規模言語モデル(LLM)の学習に用いるオープンデータセットの著作権権について検討する。
オープンデータセット上でのllmのトレーニングは,使用データの著作権上の利益を回避できるのでしょうか?
ソフトウェア著作権の定義から始まり、その歴史をたどる。
ソフトウェア著作権に挑戦する現代のケーススタディとしてgithub copilotを使用しています。
本稿では,ジェネレーティブ・ライティング・アシスタントが著作権のために作成する障害について概説し,開発者,ソフトウェア法の専門家,一般ユーザに対して,知的LLMベースのライティング・ツールの文脈で考慮すべき著作権分析の実践的なロードマップを提供する。
関連論文リスト
- Do LLMs Know to Respect Copyright Notice? [11.14140288980773]
保護材料を含むユーザ入力を処理する際に,言語モデルが著作権を侵害するか否かを検討する。
我々の研究は、言語モデルが著作権を侵害する可能性の程度を保守的に評価する。
本研究は、LLMが著作権規制を尊重することのさらなる調査の必要性と重要性を強調している。
論文 参考訳(メタデータ) (2024-11-02T04:45:21Z) - Measuring Copyright Risks of Large Language Model via Partial Information Probing [14.067687792633372]
LLM(Large Language Models)のトレーニングに使用されるデータソースについて検討する。
著作権のあるテキストの一部をLSMに入力し、それを完了するように促し、生成したコンテンツとオリジナルの著作権のある資料の重複を分析します。
これらの部分的な入力に基づいて著作権素材と重なり合うコンテンツをLLMが生成できることが本研究で実証された。
論文 参考訳(メタデータ) (2024-09-20T18:16:05Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation [24.644101178288476]
大規模言語モデル(LLM)は機械学習に変化をもたらしたが、重大な法的懸念を引き起こした。
LLMは著作権を侵害したり、著作権のないテキストを過剰に制限したりすることができる。
本稿では,著作権テキストの発生を防止するために,軽量でリアルタイムな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T18:00:03Z) - LLMs and Memorization: On Quality and Specificity of Copyright Compliance [0.0]
大規模言語モデル(LLM)のメモリ化が懸念されている。
LLMは、著作権のある作品を含むトレーニングデータの一部を容易に再現できることが示されている。
これは、欧州AI法と同様に、既存の著作権法に違反している可能性があるため、解決すべき重要な問題である。
論文 参考訳(メタデータ) (2024-05-28T18:01:52Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Copyright Violations and Large Language Models [10.251605253237491]
本研究は,動詞の暗記のレンズを通して,著作権侵害や大規模言語モデルの問題を探究する。
一般的な書籍のコレクションやコーディング問題に対して,さまざまな言語モデルを用いて実験を行った。
本研究は,著作権規制の遵守を確実にするために,自然言語処理のさらなる検討の必要性と今後の発展への潜在的影響を強調した。
論文 参考訳(メタデータ) (2023-10-20T19:14:59Z) - Source Attribution for Large Language Model-Generated Data [57.85840382230037]
合成テキストの生成に寄与したデータプロバイダを特定することで、ソース属性を実行できることが不可欠である。
我々はこの問題を透かしによって取り組めることを示した。
本稿では,アルゴリズム設計により,これらの重要な特性を満足する情報源属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:57Z) - LLMDet: A Third Party Large Language Models Generated Text Detection
Tool [119.0952092533317]
大規模言語モデル(LLM)は、高品質な人間によるテキストに非常に近い。
既存の検出ツールは、機械が生成したテキストと人間によるテキストしか区別できない。
本稿では,モデル固有,セキュア,効率的,拡張可能な検出ツールであるLLMDetを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:45:16Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。