論文の概要: Gobernanza y trazabilidad "a prueba de AI Act" para casos de uso legales: un marco técnico-jurídico, métricas forenses y evidencias auditables
- arxiv url: http://arxiv.org/abs/2510.12830v1
- Date: Sun, 12 Oct 2025 07:32:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.340368
- Title: Gobernanza y trazabilidad "a prueba de AI Act" para casos de uso legales: un marco técnico-jurídico, métricas forenses y evidencias auditables
- Title(参考訳): Gobernanza y trazabilidad "A prueba de AI Act" para casos de uso legales: un marco técnico-jurídico, métricas forenses y evidencias auditables
- Authors: Alex Dantart,
- Abstract要約: このフレームワークは、規制の規範的なマッピングを技術的コントロール、RAG/LLMシステムの法医学的アーキテクチャ、法的なリスクを重み付けした評価システムに統合する。
フレームワークのオープンソース実装であるrag-forenseに,コンプライアンスを実証するための実験的プロトコルを伴って提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a comprehensive governance framework for AI systems in the legal sector, designed to ensure verifiable compliance with the EU AI Act. The framework integrates a normative mapping of the regulation to technical controls, a forensic architecture for RAG/LLM systems, and an evaluation system with metrics weighted by legal risk. As a primary contribution, we present rag-forense, an open-source implementation of the framework, accompanied by an experimental protocol to demonstrate compliance. -- Este art\'iculo presenta un marco integral de gobernanza para sistemas de IA en el sector legal, dise\~nado para garantizar el cumplimiento verificable del Reglamento de IA de la UE (AI Act). El marco integra una cartograf\'ia normativa de la ley a controles t\'ecnicos, una arquitectura forense para sistemas RAG/LLM y un sistema de evaluaci\'on con m\'etricas ponderadas por el riesgo jur\'idico. Como principal contribuci\'on, se presenta rag-forense, una implementaci\'on de c\'odigo abierto del marco, acompa\~nada de un protocolo experimental para demostrar la conformidad.
- Abstract(参考訳): 本稿では、EUのAI法に準拠することを保証するために、法律分野におけるAIシステムのための包括的なガバナンスフレームワークを提案する。
このフレームワークは、規制の規範的なマッピングを技術的コントロール、RAG/LLMシステムの法医学的アーキテクチャ、法的なリスクを重み付けした評価システムに統合する。
主要なコントリビューションとして,フレームワークのオープンソース実装であるrag-forenseを紹介する。
略称は「IA de la UE」、略称は「IA de la UE」、略称は「IA de la UE」。
El marco integra una cartograf\'ia normativa de la ley a controles t\'ecnicos, una arquitectura forense para sistemas RAG/LLM y un sistema de evaluaci\'on con m\'etricas ponderadas por el riesgo jur\'idico。
Como principal contribuci\'on, se presenta rag-forense, una implementaci\'on de c\'odigo abierto del marco, acompa\~nada de un protocolo experimental para demostrar la conformidad。
関連論文リスト
- A five-layer framework for AI governance: integrating regulation, standards, and certification [0.6875312133832078]
人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
論文 参考訳(メタデータ) (2025-09-14T16:19:08Z) - Can AI be Auditable? [3.0260353258798625]
オーディタビリティ(Auditability)とは、倫理的、法的、技術的基準に準拠するために独立して評価されるAIシステムの能力である。
この章では、EU AI Actなどの新たな規制フレームワークを通じて、監査容易性がどのように形式化されているかを論じている。
技術的不透明さ、一貫性のないドキュメントプラクティス、標準化された監査ツールとメトリクスの欠如など、AI監査可能性に直面する課題を分析する。
論文 参考訳(メタデータ) (2025-08-30T18:03:20Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - RIRAG: Regulatory Information Retrieval and Answer Generation [51.998738311700095]
本稿では,質問を自動生成し,関連する規制通路と組み合わせる,問合せペアを生成するタスクを紹介する。
我々は、Abu Dhabi Global Markets (ADGM) の財務規制文書から得られた27,869の質問を含むObliQAデータセットを作成する。
本稿では,RIRAG(Regulation Information Retrieval and Answer Generation)システムをベースラインとして設計し,新しい評価基準であるRePASを用いて評価する。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - Towards an AI Accountability Policy [16.59829043755575]
リスクの高い技術が国家レベルでどのように規制されているかを検討する。
本稿では,商用AIシステムにおける説明可能性とベンチマーク要件の連携システムを提案する。
論文 参考訳(メタデータ) (2023-07-25T17:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。