論文の概要: Knowledge Graph Analysis of Legal Understanding and Violations in LLMs
- arxiv url: http://arxiv.org/abs/2511.08593v1
- Date: Wed, 29 Oct 2025 17:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.061554
- Title: Knowledge Graph Analysis of Legal Understanding and Violations in LLMs
- Title(参考訳): LLMにおける法的理解と違反の知識グラフ解析
- Authors: Abha Jha, Abel Salinas, Fred Morstatter,
- Abstract要約: 大規模言語モデル(LLM)は法律を分析し解釈することができる。
しかし、安全でないアウトプットを生成する際の重大な脆弱性も示している。
この研究は、倫理的かつ安全かつ機密性の高い法的ドメインを支援できるLSMを開発するための基礎となる。
- 参考スコア(独自算出の注目度): 12.520937828343586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of Large Language Models (LLMs) offers transformative potential for interpreting complex legal frameworks, such as Title 18 Section 175 of the US Code, which governs biological weapons. These systems hold promise for advancing legal analysis and compliance monitoring in sensitive domains. However, this capability comes with a troubling contradiction: while LLMs can analyze and interpret laws, they also demonstrate alarming vulnerabilities in generating unsafe outputs, such as actionable steps for bioweapon creation, despite their safeguards. To address this challenge, we propose a methodology that integrates knowledge graph construction with Retrieval-Augmented Generation (RAG) to systematically evaluate LLMs' understanding of this law, their capacity to assess legal intent (mens rea), and their potential for unsafe applications. Through structured experiments, we assess their accuracy in identifying legal violations, generating prohibited instructions, and detecting unlawful intent in bioweapons-related scenarios. Our findings reveal significant limitations in LLMs' reasoning and safety mechanisms, but they also point the way forward. By combining enhanced safety protocols with more robust legal reasoning frameworks, this research lays the groundwork for developing LLMs that can ethically and securely assist in sensitive legal domains - ensuring they act as protectors of the law rather than inadvertent enablers of its violation.
- Abstract(参考訳): LLM(Large Language Models)の台頭は、生物兵器を統治する米国法典第18条第175節のような複雑な法的枠組みを解釈するトランスフォーメーションの可能性をもっている。
これらのシステムは、機密ドメインにおける法的分析とコンプライアンス監視の進展を約束する。
LLMは法則を分析・解釈できるが、安全でないアウトプットを生成する際の脅威も示している。
この課題に対処するため、我々は知識グラフ構築とRAGを統合する手法を提案し、LLMの法則に対する理解、法的意図(mens rea)を評価する能力、そして安全でないアプリケーションの可能性について体系的に評価する。
構造化実験により, 法的な違反の特定, 禁止命令の生成, バイオ兵器関連シナリオにおける不正な意図の検出の精度を評価する。
以上の結果から,LSMの推論と安全性のメカニズムには大きな限界があることが判明した。
強化された安全プロトコルとより堅牢な法的推論フレームワークを組み合わせることで、この研究は、倫理的にかつ安全に機密性のある法的ドメインを支援できるLLMを開発するための基盤となる。
関連論文リスト
- Safety Compliance: Rethinking LLM Safety Reasoning through the Lens of Compliance [49.50518009960314]
既存の安全手法はアドホックな分類に依存しており、厳格で体系的な保護を欠いている。
我々は,法規を組み込んだ現実的なLLM安全シナリオを生成することで,安全コンプライアンスのための新しいベンチマークを開発する。
本実験は,新しいベンチマークにおいて,コンプライアンス・リゾネータが優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-09-26T12:11:29Z) - The Law-Following AI Framework: Legal Foundations and Technical Constraints. Legal Analogues for AI Actorship and technical feasibility of Law Alignment [0.0]
ローフォローAI(Law-Following AI)」は、先進的なAIエージェントのための超越的な設計目標として、法的コンプライアンスを組み込むことを目的としている。
エージェントの不正調整に関する最近の研究は、詐欺、脅迫、有害な行為に携わる有能なAIエージェントが、偏見的指示を欠いていることを示している。
コンプライアンスと欠陥検出のための"Lex-TruthfulQA"ベンチマーク,(ii)モデル自己概念に合法的な行為を埋め込むアイデンティティ形成介入,(iii)デプロイ後監視のための制御理論尺度を提案する。
論文 参考訳(メタデータ) (2025-09-08T16:00:55Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - From Rogue to Safe AI: The Role of Explicit Refusals in Aligning LLMs with International Humanitarian Law [0.0]
大規模言語モデル (LLM) は様々な分野で広く使われているが、国際人道法 (IHL) との整合性はよく理解されていない。
本研究は、これらの法的枠組みに明示的に違反するプロンプトを拒否する能力について、8つの主要なLCMを評価した。
発見は、より安全で透明性の高いAIシステムの開発に寄与する。
論文 参考訳(メタデータ) (2025-06-05T16:53:29Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - J&H: Evaluating the Robustness of Large Language Models Under Knowledge-Injection Attacks in Legal Domain [12.550611136062722]
本稿では,ロバストネステストのための法的な知識注入攻撃法を提案する。
本フレームワークの目的は,LLMが法的タスクを遂行する際の演能的推論を行うかどうかを検討することである。
我々は、法律の専門家が現実世界の司法判断で犯す可能性のある誤りを収集した。
論文 参考訳(メタデータ) (2025-03-24T05:42:05Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。