論文の概要: Contractual Deepfakes: Can Large Language Models Generate Contracts?
- arxiv url: http://arxiv.org/abs/2602.09384v1
- Date: Tue, 10 Feb 2026 03:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.359283
- Title: Contractual Deepfakes: Can Large Language Models Generate Contracts?
- Title(参考訳): 契約のディープフェイク: 大規模言語モデルは契約を生成することができるか?
- Authors: Eliza Mik,
- Abstract要約: LLMは言葉の意味を理解しておらず、文脈の感覚を持っておらず、説明できない。
その出力は統計的に支配的な単語パターンの近似を構成する。
本稿は、そのような不合理な考えに終止符を打とうとしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Notwithstanding their unprecedented ability to generate text, LLMs do not understand the meaning of words, have no sense of context and cannot reason. Their output constitutes an approximation of statistically dominant word patterns. And yet, the drafting of contracts is often presented as a typical legal task that could be facilitated by this technology. This paper seeks to put an end to such unreasonable ideas. Predicting words differs from using language in the circumstances of specific transactions and reconstituting common contractual phrases differs from reasoning about the law. LLMs seem to be able to generate generic and superficially plausible contractual documents. In the cold light of day, such documents may turn out to be useless assemblages of inconsistent provisions or contracts that are enforceable but unsuitable for a given transaction. This paper casts a shadow on the simplistic assumption that LLMs threaten the continued viability of the legal industry.
- Abstract(参考訳): テキストを生成するという前例のない能力にもかかわらず、LLMは単語の意味を理解しておらず、文脈の感覚を持っておらず、理にかなうことができない。
その出力は統計的に支配的な単語パターンの近似を構成する。
しかし、契約の起草は、しばしば、この技術によって促進される典型的な法的タスクとして提示されます。
本稿は、そのような不合理な考えに終止符を打とうとしている。
予測語は、特定の取引の状況における言語の使用と異なり、共通の契約句の再構成は、法律についての推論とは異なる。
LLMは、汎用的で表面的に妥当な契約書を生成することができるようだ。
コールドライト・オブ・デイでは,そのような書類は,所定の取引に適さない,強制的かつ不適当な規定又は契約の無用な集合体であることが判明する。
本稿では,LLMが法産業の存続を脅かすという単純な仮定に影を落としている。
関連論文リスト
- Towards Robust Legal Reasoning: Harnessing Logical LLMs in Law [0.0]
大規模言語モデル(LLM)は将来性を示すが、法的文脈におけるそれらの応用には高い精度、再現性、透明性が必要である。
本稿では,LLMの自然言語理解と論理に基づく推論を統合したニューロシンボリックアプローチを提案する。
法律文書ケーススタディとして,保険契約のカバレッジ関連クエリにニューロシンボリックAIを適用した。
論文 参考訳(メタデータ) (2025-02-24T20:38:17Z) - Ambiguity is the last thing you need [0.0]
明確な法的言語は、多くの理由で契約のバックボーンを形成する。
曖昧な言語が使われた契約当事者間での論争がしばしば起こる。
あいまいな言語は、当事者間の強みのバランスが不均衡な場合にも重要である。
論文 参考訳(メタデータ) (2024-10-26T16:35:45Z) - Caveat Lector: Large Language Models in Legal Practice [0.0]
大規模な言語モデルへの関心は、多くのユーザーが生成したテキストの品質を評価するための専門知識を欠いているという事実から来ている。
急流と表面的可視性の危険な組み合わせは、生成されたテキストを信頼する誘惑を招き、過信のリスクを生じさせる。
論文 参考訳(メタデータ) (2024-03-14T08:19:41Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - BLT: Can Large Language Models Handle Basic Legal Text? [44.89873147675516]
GPT-4とClaudeは、基本的な法的テキスト処理では性能が良くない。
ベンチマークの粗悪なパフォーマンスは、法的慣行の信頼性を疑うものだ。
トレーニングセットの微調整は、小さなモデルでもほぼ完璧なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-11-16T09:09:22Z) - Generative Interpretation [0.0]
大規模言語モデルを用いて契約意味を推定する新しい手法である生成的解釈を導入する。
AIモデルは、ファインダーが文脈における通常の意味を確認し、あいまいさを定量化し、当事者の合意のギャップを埋めるのに役立つことを示す。
論文 参考訳(メタデータ) (2023-08-14T02:59:27Z) - ContractNLI: A Dataset for Document-level Natural Language Inference for
Contracts [39.75232199445175]
契約書に対する文書レベルの自然言語推論(NLI)を提案する。
システムには一連の仮説と契約が与えられ、それぞれの仮説が「関連づけられている」か、「矛盾している」か、「言及されていない」か(中立である)を分類するよう求められる。
これまでで最大のコーパスを607のアノテート契約でリリースしています。
論文 参考訳(メタデータ) (2021-10-05T03:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。