論文の概要: Web Intellectual Property at Risk: Preventing Unauthorized Real-Time Retrieval by Large Language Models
- arxiv url: http://arxiv.org/abs/2505.12655v2
- Date: Fri, 06 Jun 2025 04:55:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:42.977481
- Title: Web Intellectual Property at Risk: Preventing Unauthorized Real-Time Retrieval by Large Language Models
- Title(参考訳): Web知的財産権のリスク:大規模言語モデルによる未認可リアルタイム検索の防止
- Authors: Yisheng Zhong, Yizhu Wen, Junfeng Guo, Mehran Kafai, Heng Huang, Hanqing Guo, Zhuangdi Zhu,
- Abstract要約: 本稿では,Webコンテンツ作成者に対して,不正な抽出と再配布からWebベースのIPを保護するための新しいフレームワークを提案する。
提案手法はモチベーションの原則に従い,難解なブラックボックス最適化問題に効果的に対処する。
- 参考スコア(独自算出の注目度): 49.270849415269936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The protection of cyber Intellectual Property (IP) such as web content is an increasingly critical concern. The rise of large language models (LLMs) with online retrieval capabilities enables convenient access to information but often undermines the rights of original content creators. As users increasingly rely on LLM-generated responses, they gradually diminish direct engagement with original information sources, which will significantly reduce the incentives for IP creators to contribute, and lead to a saturating cyberspace with more AI-generated content. In response, we propose a novel defense framework that empowers web content creators to safeguard their web-based IP from unauthorized LLM real-time extraction and redistribution by leveraging the semantic understanding capability of LLMs themselves. Our method follows principled motivations and effectively addresses an intractable black-box optimization problem. Real-world experiments demonstrated that our methods improve defense success rates from 2.5% to 88.6% on different LLMs, outperforming traditional defenses such as configuration-based restrictions.
- Abstract(参考訳): ウェブコンテンツのようなサイバー知的財産権(IP)の保護はますます重要な問題となっている。
オンライン検索機能を備えた大規模言語モデル(LLM)の台頭は、情報への便利なアクセスを可能にするが、しばしばオリジナルコンテンツクリエーターの権利を損なう。
ユーザがLSM生成のレスポンスにますます依存するにつれて、元の情報ソースとの直接の関わりは徐々に減少し、IP作成者が貢献するインセンティブが大幅に減少し、AI生成コンテンツがより多くなる飽和したサイバースペースにつながる。
そこで本研究では,LLM自体のセマンティック理解機能を活用して,Webコンテンツ作成者に対して,許可されていないLLMのリアルタイム抽出と再配布からWebベースのIPを保護するための,新たな防衛フレームワークを提案する。
提案手法はモチベーションの原則に従い,難解なブラックボックス最適化問題に効果的に対処する。
実世界の実験では、我々の手法は異なるLLMにおいて2.5%から88.6%の防衛成功率を向上し、構成に基づく制限のような従来の防衛よりも優れていた。
関連論文リスト
- Vision-Language Model IP Protection via Prompt-based Learning [52.783709712318405]
視覚言語モデル(VLM)に適した軽量IP保護戦略であるIP-CLIPを導入する。
CLIPの凍結した視覚的バックボーンを利用することで、画像スタイルとコンテンツ情報の両方を抽出し、IPプロンプトの学習に取り入れる。
この戦略は堅牢な障壁として機能し、権限のないドメインから権限のないドメインへの機能移転を効果的に防止する。
論文 参考訳(メタデータ) (2025-03-04T08:31:12Z) - ExpShield: Safeguarding Web Text from Unauthorized Crawling and Language Modeling Exploitation [17.71790411163849]
そこで本研究では,非知覚的テキスト摂動によるサンプル固有の記憶を緩和する,能動的自己防衛機構であるExpShiledを提案する。
当社のアプローチでは、オリジナルの可読性を維持しながら外部とのコラボレーションは必要ありません。
プライバシーのバックドアがあっても、MIA(Community Inference Attack)のAUCは0.95から0.55に低下し、インスタンスエクスプロイトは0に近づいた。
論文 参考訳(メタデータ) (2024-12-30T17:52:02Z) - When LLMs Go Online: The Emerging Threat of Web-Enabled LLMs [26.2943792874156]
個人データを含むサイバー攻撃における大規模言語モデル(LLM)の誤用に関連するリスクについて検討する。
具体的には,サイバーアタックの実施を指示されたLLMエージェントがいかに強力かを理解することを目的としている。
本稿では,PII(Personally Identible Information)の収集,偽造投稿の生成,スピアフィッシングメールの作成の3つの攻撃シナリオについて検討する。
論文 参考訳(メタデータ) (2024-10-18T16:16:34Z) - Enhancing the Capability and Robustness of Large Language Models through Reinforcement Learning-Driven Query Refinement [35.50259088854813]
大きな言語モデル(LLM)の、正直で無害で有用な応答を生成する能力は、ユーザープロンプトの品質に大きく依存している。
本研究では,LSMに入力される前にユーザプロンプトを洗練する,転送可能でプラグイン可能なフレームワークを提案する。
この戦略はクエリの品質を改善し、LCMにより誠実で良質で有用なレスポンスを生成する権限を与えます。
論文 参考訳(メタデータ) (2024-07-01T16:55:28Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。