論文の概要: The Ethical Compass of the Machine: Evaluating Large Language Models for Decision Support in Construction Project Management
- arxiv url: http://arxiv.org/abs/2509.04505v1
- Date: Tue, 02 Sep 2025 13:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.342586
- Title: The Ethical Compass of the Machine: Evaluating Large Language Models for Decision Support in Construction Project Management
- Title(参考訳): 機械の倫理的コンパス:建設プロジェクト管理における意思決定支援のための大規模言語モデルの評価
- Authors: Somtochukwu Azie, Yiping Meng,
- Abstract要約: 本研究では,大規模言語モデル(LLM)の倫理的生存性と信頼性を批判的に評価することを目的とする。
建設領域内でのLLMの倫理的推論を実証的に検証した最初の研究の1つである。
- 参考スコア(独自算出の注目度): 0.38196178521289315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Artificial Intelligence (AI) into construction project management (CPM) is accelerating, with Large Language Models (LLMs) emerging as accessible decision-support tools. This study aims to critically evaluate the ethical viability and reliability of LLMs when applied to the ethically sensitive, high-risk decision-making contexts inherent in CPM. A mixed-methods research design was employed, involving the quantitative performance testing of two leading LLMs against twelve real-world ethical scenarios using a novel Ethical Decision Support Assessment Checklist (EDSAC), and qualitative analysis of semi-structured interviews with 12 industry experts to capture professional perceptions. The findings reveal that while LLMs demonstrate adequate performance in structured domains such as legal compliance, they exhibit significant deficiencies in handling contextual nuance, ensuring accountability, and providing transparent reasoning. Stakeholders expressed considerable reservations regarding the autonomous use of AI for ethical judgments, strongly advocating for robust human-in-the-loop oversight. To our knowledge, this is one of the first studies to empirically test the ethical reasoning of LLMs within the construction domain. It introduces the EDSAC framework as a replicable methodology and provides actionable recommendations, emphasising that LLMs are currently best positioned as decision-support aids rather than autonomous ethical agents.
- Abstract(参考訳): 人工知能(AI)と建設プロジェクト管理(CPM)の統合は加速しており、大きな言語モデル(LLM)がアクセス可能な意思決定支援ツールとして登場している。
本研究は、CPM固有の倫理的感度の高い高リスク意思決定コンテキストに適用した場合、LCMの倫理的生存性と信頼性を批判的に評価することを目的とする。
混合メソッドの研究設計は、新しい倫理的決定支援チェックリスト(EDSAC)を用いて、12の現実の倫理的シナリオに対する2つの主要なLCMの定量的な性能試験と、12の業界専門家との半構造化インタビューの質的分析を取り入れた。
その結果,LLMは法的コンプライアンスなどの構造化ドメインで十分な性能を示す一方で,文脈的ニュアンスや説明責任の確保,透明性の確保に重大な欠陥があることが判明した。
株主は倫理的判断にAIを自律的に使用することについてかなりの留意を表明し、堅牢な人間対ループ監視を強く主張した。
我々の知る限り、これは建設領域内でのLLMの倫理的推論を実証的に検証した最初の研究の1つである。
EDSACフレームワークを複製可能な方法論として導入し、行動可能なレコメンデーションを提供し、LLMが自律的な倫理的エージェントよりも意思決定支援援助として最も適していることを強調した。
関連論文リスト
- Using Large Language Models for Legal Decision-Making in Austrian Value-Added Tax Law: An Experimental Study [0.0]
本稿では,オーストリアと欧州連合の付加価値税法(VAT)の枠組みにおいて,大規模言語モデル(LLM)の法的意思決定を支援する能力について実験的に評価する。
論文 参考訳(メタデータ) (2025-07-11T10:19:56Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - LLM-based HSE Compliance Assessment: Benchmark, Performance, and Advancements [26.88382777632026]
HSE-Benchは、大規模言語モデルのHSEコンプライアンス評価能力を評価するために設計された最初のベンチマークデータセットである。
規則、裁判、安全試験、フィールドワークビデオから引き出された1000以上の手作業による質問で構成されている。
我々は,基礎モデル,推論モデル,マルチモーダル視覚モデルなど,異なるプロンプト戦略と10以上のLLMの評価を行う。
論文 参考訳(メタデータ) (2025-05-29T01:02:53Z) - Development of Application-Specific Large Language Models to Facilitate Research Ethics Review [0.0]
IRBレビュープロセスを容易にするアプリケーション固有大規模言語モデル(LLM)を提案する。
これらのIRB固有のLCMは、IRB固有の文献と機関的なデータセットに基づいて微調整される。
我々は、事前レビューのスクリーニング、予備分析、一貫性チェック、意思決定支援など、潜在的なアプリケーションの概要を述べる。
論文 参考訳(メタデータ) (2025-01-18T12:05:05Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Rational Decision-Making Agent with Internalized Utility Judgment [88.01612847081677]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。