論文の概要: Legal Alignment for Safe and Ethical AI
- arxiv url: http://arxiv.org/abs/2601.04175v1
- Date: Wed, 07 Jan 2026 18:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.717258
- Title: Legal Alignment for Safe and Ethical AI
- Title(参考訳): 安全で倫理的なAIのための法的なアライメント
- Authors: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain,
- Abstract要約: 本稿では, 法則, 原則, 方法を用いてアライメントの問題に対処する方法について考察する。
研究の方向性は、新しい概念的、経験的、制度的な疑問を提示する。
これらの問題に取り組むには、法律、コンピュータ科学、その他の分野の専門知識が必要である。
- 参考スコア(独自算出の注目度): 15.666397604085459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
- Abstract(参考訳): 人工知能(AI)のアライメント(アライメント)は、AIシステムがどのように振る舞うべきかを規定する規範的な問題と、AIシステムがそれらの仕様に準拠していることを保証する技術的な問題を含んでいる。
これまでAIのアライメントは、これらの問題に対処するための重要な知識と実践の源を見落としてきた。
本稿では, 安全かつ倫理的に機能するAIシステムの設計とアライメントの問題を解決するために, 法則, 原則, 方法をどのように活用できるかを探求することによって, このギャップを埋めることを目的とする。
この新たな分野 -- 法的なアライメント -- は、(1)正統な機関やプロセスを通じて発達した法的な規則の内容に従うようにAIシステムを設計すること、(2)AIシステムの理由と意思決定を導くための法的な解釈からの方法を適用すること、(3)AIシステムの信頼性、信頼、協力の課題に直面するための構造的青写真として法的な概念を活用すること、の3つの研究方向に焦点を当てている。
これらの研究の方向性は、特定のAIシステムが従うべき法則の特定のセットを調べること、現実の環境での法的コンプライアンスを評価するための評価を作成すること、実際に法的アライメントを実施するためのガバナンスフレームワークを開発することを含む、新しい概念的、経験的、制度的な質問を提示する。
これらの質問に対処するには、法律、コンピュータサイエンス、その他の分野の専門知識が必要である。
関連論文リスト
- Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - It's complicated. The relationship of algorithmic fairness and non-discrimination regulations for high-risk systems in the EU AI Act [2.9914612342004503]
EUは最近、ハイリスクシステムの特定のルールを規定するAI法を成立させた。
本稿では、法的な非差別規則と機械学習に基づくアルゴリズムフェアネスの概念を橋渡しすることを目的とする。
論文 参考訳(メタデータ) (2025-01-22T15:38:09Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。