論文の概要: Putting GenAI on Notice: GenAI Exceptionalism and Contract Law
- arxiv url: http://arxiv.org/abs/2504.00961v1
- Date: Tue, 01 Apr 2025 16:58:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:23:34.563935
- Title: Putting GenAI on Notice: GenAI Exceptionalism and Contract Law
- Title(参考訳): GenAIに通知:GenAI例外主義と契約法
- Authors: David Atkinson,
- Abstract要約: スクレーピングは、ウェブサイトページのコピーを作成するコード(スクレイピングボット)を使って行われる。
ウェブサイトのサービス規約でスクラップを禁止している1つの方法は、条件がいつ強制可能かは必ずしも明確ではないため、緩やかに強制される。
本論文は, スクレーピングとは何か, エンティティがどのように行うのか, ウェブサイトのサービス規約が強制可能であるのか, および, ウェブサイト所有者がスクレーピングの結果としてどのような損害を被るかを説明することによって, 混乱を解消することを目的としている。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License:
- Abstract: Gathering enough data to create sufficiently useful training datasets for generative artificial intelligence requires scraping most public websites. The scraping is conducted using pieces of code (scraping bots) that make copies of website pages. Today, there are only a few ways for website owners to effectively block these bots from scraping content. One method, prohibiting scraping in the website terms of service, is loosely enforced because it is not always clear when the terms are enforceable. This paper aims to clear up the confusion by describing what scraping is, how entities do it, what makes website terms of service enforceable, and what claims of damages website owners may make as a result of being scraped. The novel argument of the paper is that when (i) a site's terms of service or terms of use prohibit scraping or using site content to train AI and (ii) a bot scrapes pages on the website including those terms, the bot's deployer has actual notice of the terms and those terms are therefore legally enforceable, meaning the site can claim a breach of contract. This paper also details the legal and substantive arguments favoring this position while cautioning that nonprofits with a primarily scientific research focus should be exempt from such strict enforcement.
- Abstract(参考訳): 生成人工知能のための十分有用なトレーニングデータセットを作成するのに十分なデータを集めるには、ほとんどの公開ウェブサイトをスクラップする必要がある。
スクレーピングは、ウェブサイトページのコピーを作成するコード(スクレイピングボット)を使って行われる。
現在、ウェブサイトのオーナーがこれらのボットを効果的にブロックする方法はいくつかしかない。
ウェブサイトのサービス規約でスクラップを禁止している1つの方法は、条件がいつ強制可能かは必ずしも明確ではないため、緩やかに強制される。
本論文は, スクレーピングとは何か, エンティティがどのように行うのか, ウェブサイトのサービス規約が強制可能であるのか, および, ウェブサイト所有者がスクレーピングの結果としてどのような損害を被るかを説明することによって, 混乱を解消することを目的としている。
論文の新たな議論は、いつ
一 サイトのサービス規約又は使用規約により、AIの訓練にサイト内容のスクレーピング又は使用を禁止し、又は使用すること。
(ii)ボットは、それらの用語を含むウェブサイトのページをスクラップし、ボットのデプロイ者は、その用語を実際に通知し、従ってそれらの用語は法的に強制可能であり、つまり、サイトは契約違反を主張することができる。
本稿は、この立場を優先する法的・実質的な議論についても詳述するとともに、主に科学的研究に焦点をあてた非営利団体は、そのような厳格な執行から除外されるべきである、と警告する。
関連論文リスト
- The Mirage of Artificial Intelligence Terms of Use Restrictions [4.314681767172961]
人工知能(AI)モデル作成者は一般的に、モデルと出力の両方に制限的な使用規約を付ける。
本条は、AIモデルの使用規約の施行可能性について体系的に評価し、3つの貢献を行う。
論文 参考訳(メタデータ) (2024-12-10T00:18:29Z) - Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - AutoScraper: A Progressive Understanding Web Agent for Web Scraper Generation [54.17246674188208]
Webスクレイピングは、Webサイトからデータを抽出し、自動データ収集を可能にし、データ分析機能を強化し、手動のデータ入力作業を最小化する強力なテクニックである。
既存の手法では、ラッパーベースの手法は、新しいウェブサイトで直面する場合、適応性とスケーラビリティの制限に悩まされる。
本稿では,大規模言語モデル(LLM)を用いたWebスクレイパー生成のパラダイムを紹介し,多様なWeb環境をより効率的に処理できる2段階フレームワークであるAutoScraperを提案する。
論文 参考訳(メタデータ) (2024-04-19T09:59:44Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - SemStamp: A Semantic Watermark with Paraphrastic Robustness for Text Generation [72.10931780019297]
既存の透かしアルゴリズムはトークンレベルの設計のため、パラフレーズ攻撃に弱い。
局所性に敏感なハッシュ(LSH)に基づく頑健な文レベルのセマンティック透かしアルゴリズムSemStampを提案する。
実験結果から,本アルゴリズムは従来手法に比べて,従来手法よりも頑健であるだけでなく,生成品質の維持にも有効であることが示唆された。
論文 参考訳(メタデータ) (2023-10-06T03:33:42Z) - Should we trust web-scraped data? [0.0]
ウェブ・スクラップ(英語: Web scraping)とは、ウェブサイトにアクセスしてコンテンツをダウンロードする自動化されたコンピュータ・プログラムである。
本稿では、Webスクラッドデータにおけるサンプリングバイアスの3つの源について述べる。
論文 参考訳(メタデータ) (2023-08-04T10:07:31Z) - MAWSEO: Adversarial Wiki Search Poisoning for Illicit Online Promotion [23.200022139747254]
本稿では,Wiki上のステルスブラックハットSEOが自動化可能であることを示す研究を報告する。
我々の技術はMAWSEOと呼ばれ、現実のサイバー犯罪の目的を達成するために敵のリビジョンを用いています。
評価とユーザスタディにより,MAWSEOは敵の破壊的編集を効果的かつ効率的に生成できることが示された。
論文 参考訳(メタデータ) (2023-04-22T03:13:05Z) - Tracing Text Provenance via Context-Aware Lexical Substitution [81.49359106648735]
文脈を考慮した語彙置換に基づく自然言語透かし方式を提案する。
主観的および主観的尺度の両面において,我々の透かし方式は原文の意味的整合性を十分に維持することができる。
論文 参考訳(メタデータ) (2021-12-15T04:27:33Z) - \textit{StateCensusLaws.org}: A Web Application for Consuming and
Annotating Legal Discourse Learning [89.77347919191774]
法律テキストの対話セグメントを解析およびラベル付けするために訓練されたNLPモデルの出力を強調表示するためのWebアプリケーションを作成します。
我々は、米国国勢調査人口を用いて資源を割り当て、政府を組織する州レベルの法律に焦点を当てる。
論文 参考訳(メタデータ) (2021-04-20T22:00:54Z) - Text-guided Legal Knowledge Graph Reasoning [11.089663225933412]
本稿では,関連する法律規定を予測することを目的とした,新しい法律提供予測(lpp)の適用を提案する。
広東省庁のWebサイトから現実の法的規定データを収集し、LegalLPPという法的データセットを構築します。
論文 参考訳(メタデータ) (2021-04-06T04:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。