論文の概要: The Engineer's Dilemma: A Review of Establishing a Legal Framework for Integrating Machine Learning in Construction by Navigating Precedents and Industry Expectations
- arxiv url: http://arxiv.org/abs/2507.08908v1
- Date: Fri, 11 Jul 2025 13:28:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.853919
- Title: The Engineer's Dilemma: A Review of Establishing a Legal Framework for Integrating Machine Learning in Construction by Navigating Precedents and Industry Expectations
- Title(参考訳): 技術者のジレンマ:先駆者と産業の期待をナビゲートした建設における機械学習統合のための法的枠組みの確立
- Authors: M. Z. Naser,
- Abstract要約: 機械学習(ML)に対する幅広い関心にもかかわらず、エンジニアリング業界はまだMLベースの手法を完全に採用していない。
本稿では,ML技術の展開を支援する上で,技術者が法的原則や法的正当化をナビゲートする方法について考察する。
- 参考スコア(独自算出の注目度): 3.8314877221880512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the widespread interest in machine learning (ML), the engineering industry has not yet fully adopted ML-based methods, which has left engineers and stakeholders uncertain about the legal and regulatory frameworks that govern their decisions. This gap remains unaddressed as an engineer's decision-making process, typically governed by professional ethics and practical guidelines, now intersects with complex algorithmic outputs. To bridge this gap, this paper explores how engineers can navigate legal principles and legislative justifications that support and/or contest the deployment of ML technologies. Drawing on recent precedents and experiences gained from other fields, this paper argues that analogical reasoning can provide a basis for embedding ML within existing engineering codes while maintaining professional accountability and meeting safety requirements. In exploring these issues, the discussion focuses on established liability doctrines, such as negligence and product liability, and highlights how courts have evaluated the use of predictive models. We further analyze how legislative bodies and standard-setting organizations can furnish explicit guidance equivalent to prior endorsements of emergent technologies. This exploration stresses the vitality of understanding the interplay between technical justifications and legal precedents for shaping an informed stance on ML's legitimacy in engineering practice. Finally, our analysis catalyzes a legal framework for integrating ML through which stakeholders can critically assess the responsibilities, liabilities, and benefits inherent in ML-driven engineering solutions.
- Abstract(参考訳): 機械学習(ML)に対する広範な関心にもかかわらず、エンジニアリング業界はまだMLベースの手法を完全に採用していない。
このギャップは、通常は専門的な倫理と実践的なガイドラインによって管理される、エンジニアの意思決定プロセスとして、いまだ不適切なままであり、現在では複雑なアルゴリズムの出力と交差している。
このギャップを埋めるために、この論文では、ML技術の展開を支援したり、争ったりするための法的な原則と立法上の正当化をエンジニアがいかにナビゲートできるかを考察する。
本論文は,近年の先例や他の分野から得られた経験に基づいて,MLを既存のエンジニアリングコードに組み込む上で,専門家のアカウンタビリティを維持しつつ,安全性要件を満たすための基盤となることを論じる。
これらの問題を探求する上で、この議論は怠慢や製品責任といった確立した責任原理に焦点を当て、裁判所が予測モデルの使用を評価した点を強調している。
さらに、我々は、立法機関や標準設定組織が、創発的技術の事前承認と同等の明確なガイダンスを課すことができるかを分析する。
この調査は、エンジニアリング実践におけるMLの正当性に関する情報的なスタンスを形成するための、技術的正当化と法的な前例の間の相互作用を理解することの重要性を強調している。
最後に、我々の分析は、利害関係者がML駆動エンジニアリングソリューションに固有の責任、責任、利益を批判的に評価できる、MLを統合するための法的枠組みを触媒する。
関連論文リスト
- Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Engineering the Law-Machine Learning Translation Problem: Developing Legally Aligned Models [0.0]
本稿では,機械学習モデル開発において,法的および機械学習技術分析を統合した5段階の学際フレームワークを提案する。
このフレームワークは、法的に整合した方法でMLモデルを設計し、法的に妥当なハイパフォーマンスモデルを特定することを容易にする。
論文 参考訳(メタデータ) (2025-04-23T13:41:17Z) - A Comprehensive Framework for Reliable Legal AI: Combining Specialized Expert Systems and Adaptive Refinement [0.0]
本稿では,専門家システムと知識に基づくアーキテクチャを組み合わせた新しい枠組みを提案する。
このフレームワークは特殊なモジュールを利用し、それぞれが特定の法的領域に焦点を当て、構造化された運用ガイドラインを取り入れて意思決定を強化する。
提案されたアプローチは、既存のAIモデルよりも大幅に改善され、法的タスクのパフォーマンスが向上し、よりアクセシブルで手頃な価格の法律サービスを提供するスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-29T14:00:11Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Authorized and Unauthorized Practices of Law: The Role of Autonomous
Levels of AI Legal Reasoning [0.0]
法分野は、認可された法律実務(APL)と無認可の法律実務(UPL)を定義することを目指している。
本稿では,AILR自律レベルに適用する上で,APLとUPLの基盤となる重要な特徴を記述した新たなインスツルメンタルグリッドについて検討する。
論文 参考訳(メタデータ) (2020-08-19T18:35:58Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。