論文の概要: Authorship and the Politics and Ethics of LLM Watermarks
- arxiv url: http://arxiv.org/abs/2403.06593v1
- Date: Mon, 11 Mar 2024 10:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:21:22.171033
- Title: Authorship and the Politics and Ethics of LLM Watermarks
- Title(参考訳): llmウォーターマークの著作と政治・倫理
- Authors: Tim R\"az
- Abstract要約: 本稿では,透かし方式の実践と活用の哲学的・政治的・倫理的影響について考察する。
背景として、LLM(LLM)と人間の両方を含む著者の定義が提案されている。
民間の透かしは、従来の著作者決定の基準とは相容れない、著作者決定のための徹底的な権利を民間企業に与える可能性があると論じられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, watermarking schemes for large language models (LLMs) have been
proposed to distinguish text generated by machines and by humans. The present
paper explores philosophical, political, and ethical ramifications of
implementing and using watermarking schemes. A definition of authorship that
includes both machines (LLMs) and humans is proposed to serve as a backdrop. It
is argued that private watermarks may provide private companies with sweeping
rights to determine authorship, which is incompatible with traditional
standards of authorship determination. Then, possible ramifications of the
so-called entropy dependence of watermarking mechanisms are explored. It is
argued that entropy may vary for different, socially salient groups. This could
lead to group dependent rates at which machine generated text is detected.
Specifically, groups more interested in low entropy text may face the challenge
that it is harder to detect machine generated text that is of interest to them.
- Abstract(参考訳): 近年,機械や人間が生成するテキストを識別するために,大規模言語モデル(LLM)の透かし方式が提案されている。
本稿では,透かし方式の実践と活用の哲学的・政治的・倫理的影響について考察する。
機械(llm)と人間(human)の両方を含む著者の定義が背景として提案されている。
民間の透かしは、従来の著作者決定の基準とは相容れない、著作者決定のための徹底的な権利を民間企業に与える可能性があると論じられている。
そこで,透かし機構のいわゆるエントロピー依存性の解明の可能性を探る。
エントロピーは異なる、社会的に健全なグループによって異なるかもしれないと論じられている。
これは、マシンが生成したテキストが検出されるグループ依存率につながる可能性がある。
特に、低エントロピーテキストに関心のあるグループは、それらに興味のあるマシン生成テキストを検出するのが難しいという課題に直面するかもしれない。
関連論文リスト
- Mark My Words: Analyzing and Evaluating Language Model Watermarks [8.610361087746718]
本研究は、画像透かしとは対照的に、テキスト透かし技術に焦点を当て、MARKMYWORDSを提案する。
品質、サイズ(透かしを検出するのに必要なトークンの数など)、タンパー抵抗の3つの主要な指標に注目します。
我々は、いくつかの先行研究で強調された基準である透かしの不明瞭さは、要求が強すぎると論じている。
論文 参考訳(メタデータ) (2023-12-01T01:22:46Z) - I Know You Did Not Write That! A Sampling Based Watermarking Method for
Identifying Machine Generated Text [0.0]
機械生成テキストを検出するための新しい透かし手法を提案する。
我々の方法は生成されたテキストにユニークなパターンを埋め込む。
本稿では,透かしがテキスト品質にどのように影響するかを示し,提案手法を最先端の透かし法と比較する。
論文 参考訳(メタデータ) (2023-11-29T20:04:57Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - On the Reliability of Watermarks for Large Language Models [50.01830399815094]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - Who Wrote this Code? Watermarking for Code Generation [55.54239495289517]
エントロピー閾値(SWEET)を用いた新しい透かし手法Selective WatErmarkingを提案する。
SWEETは、生成中のトークン分布のエントロピーが高い位置にのみ「グリーン」トークンをプロモートすることで、生成されたコードの正確性を維持する。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - A Watermark for Large Language Models [60.66466446340074]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z) - The Ethical Need for Watermarks in Machine-Generated Language [0.0]
透かしは、人間と機械が生成したテキストの区別を維持するために、AIシステムの自然言語出力に導入されるべきである。
等価な文字列に基づくコードの実装を提案する。
人間が書いたテキストにはそのようなコードは存在しないが、機械が生成したものは倫理上の理由から有効であることが証明される。
論文 参考訳(メタデータ) (2022-09-07T13:09:44Z) - Tracing Text Provenance via Context-Aware Lexical Substitution [81.49359106648735]
文脈を考慮した語彙置換に基づく自然言語透かし方式を提案する。
主観的および主観的尺度の両面において,我々の透かし方式は原文の意味的整合性を十分に維持することができる。
論文 参考訳(メタデータ) (2021-12-15T04:27:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。