論文の概要: Automated Interpretation of Non-Destructive Evaluation Contour Maps Using Large Language Models for Bridge Condition Assessment
- arxiv url: http://arxiv.org/abs/2507.14107v1
- Date: Fri, 18 Jul 2025 17:39:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.37841
- Title: Automated Interpretation of Non-Destructive Evaluation Contour Maps Using Large Language Models for Bridge Condition Assessment
- Title(参考訳): 橋梁条件評価のための大規模言語モデルを用いた非破壊評価輪郭図の自動解釈
- Authors: Viraj Nishesh Darji, Callie C. Liao, Duoduo Liao,
- Abstract要約: 橋の維持と安全は交通機関にとって不可欠である。
非破壊的評価(NDE)技術は構造的整合性を評価する上で重要である。
大規模言語モデル(LLM)の最近の進歩は、この分析を自動化し改善する新しい方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bridge maintenance and safety are essential for transportation authorities, and Non-Destructive Evaluation (NDE) techniques are critical to assessing structural integrity. However, interpreting NDE data can be time-consuming and requires expertise, potentially delaying decision-making. Recent advancements in Large Language Models (LLMs) offer new ways to automate and improve this analysis. This pilot study introduces a holistic assessment of LLM capabilities for interpreting NDE contour maps and demonstrates the effectiveness of LLMs in providing detailed bridge condition analyses. It establishes a framework for integrating LLMs into bridge inspection workflows, indicating that LLM-assisted analysis can enhance efficiency without compromising accuracy. In this study, several LLMs are explored with prompts specifically designed to enhance the quality of image descriptions, which are applied to interpret five different NDE contour maps obtained through technologies for assessing bridge conditions. Each LLM model is evaluated based on its ability to produce detailed descriptions, identify defects, provide actionable recommendations, and demonstrate overall accuracy. The research indicates that four of the nine models provide better image descriptions, effectively covering a wide range of topics related to the bridge's condition. The outputs from these four models are summarized using five different LLMs to form a comprehensive overview of the bridge. Notably, LLMs ChatGPT-4 and Claude 3.5 Sonnet generate more effective summaries. The findings suggest that LLMs have the potential to significantly improve efficiency and accuracy. This pilot study presents an innovative approach that leverages LLMs for image captioning in parallel and summarization, enabling faster decision-making in bridge maintenance and enhancing infrastructure management and safety assessments.
- Abstract(参考訳): 橋梁の維持と安全性は交通機関にとって不可欠であり,非破壊評価(NDE)技術は構造的整合性を評価する上で重要である。
しかし、NDEデータの解釈には時間がかかり、専門知識が必要であり、意思決定を遅らせる可能性がある。
大規模言語モデル(LLM)の最近の進歩は、この分析を自動化し改善する新しい方法を提供する。
本研究は,NDE輪郭図の解釈におけるLLMの総合的評価を導入し,詳細な橋梁条件解析を行う上でのLLMの有効性を実証する。
LLMをブリッジ検査ワークフローに統合する枠組みを確立し、LCM支援分析が精度を損なうことなく効率を向上できることを示す。
本研究では, 橋梁条件評価技術を用いて得られた5種類のNDE輪郭図を解釈するために, 画像記述の質を高めるためのプロンプトを考案した。
各LCMモデルは、詳細な記述を作成し、欠陥を特定し、実行可能なレコメンデーションを提供し、全体的な精度を示す能力に基づいて評価される。
本研究は,9つのモデルのうち4つのモデルがより優れた画像記述を提供し,橋梁の状態に関する幅広い話題を効果的にカバーしていることを示している。
これら4つのモデルからの出力は、5つの異なるLCMを用いて要約され、橋の全体像を形成する。
特に、LLMs ChatGPT-4 と Claude 3.5 Sonnet はより効果的な要約を生成する。
その結果, LLMは効率と精度を著しく向上させる可能性が示唆された。
このパイロットスタディでは,画像キャプションの並列化と要約にLLMを活用し,橋梁維持における意思決定の迅速化,インフラ管理と安全性評価の強化を実現する,革新的なアプローチを提案する。
関連論文リスト
- Prompt to Protection: A Comparative Study of Multimodal LLMs in Construction Hazard Recognition [0.0]
本研究は,5つの最先端大言語モデル(LLM)の比較評価を行う。
各モデルは、ゼロショット、少数ショット、チェーン・オブ・シント(CoT)という3つのプロンプト戦略の下でテストされた。
その結果、CoTは性能に大きく影響し、CoTはモデル間で高い精度を連続的に生成することがわかった。
論文 参考訳(メタデータ) (2025-06-09T05:22:35Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - The Lighthouse of Language: Enhancing LLM Agents via Critique-Guided Improvement [49.687224320842105]
大規模言語モデル(LLM)は、最近、テキストベースのアシスタントから、計画、推論、反復的な行動改善が可能な自律エージェントへと変化した。
本研究では,環境を探索するアクターモデルと,詳細な自然言語フィードバックを生成する批評家モデルからなる,新しい2人プレイヤフレームワークであるCGIを紹介する。
論文 参考訳(メタデータ) (2025-03-20T10:42:33Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Understanding the Role of LLMs in Multimodal Evaluation Benchmarks [77.59035801244278]
本稿では,MLLM評価におけるLarge Language Model (LLM)バックボーンの役割について検討する。
本研究は4つのMLLMベンチマークと8つの最先端MLLMベンチマークを含む。
鍵となる発見は、いくつかのベンチマークでは視覚的な入力がなくても高いパフォーマンスを実現しており、最大50%のエラーレートは、LLMバックボーンにおける不十分な世界的知識に起因していることを示している。
論文 参考訳(メタデータ) (2024-10-16T07:49:13Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - RUPBench: Benchmarking Reasoning Under Perturbations for Robustness Evaluation in Large Language Models [12.112914393948415]
RUPBenchは,多種多様な推論タスクにわたる大規模言語モデル(LLM)を評価するために設計されたベンチマークである。
我々のベンチマークには15の推論データセットが組み込まれており、コモンセンス、算術、論理、知識集約推論に分類されている。
GPT-4o, Llama3, Phi-3, Gemmaといった最先端のLCMの原文および摂動データセットの性能を調べることにより, その堅牢性およびエラーパターンを詳細に解析する。
論文 参考訳(メタデータ) (2024-06-16T17:26:44Z) - LLM In-Context Recall is Prompt Dependent [0.0]
これを行うモデルの能力は、実世界のアプリケーションにおける実用性と信頼性に大きな影響を及ぼす。
本研究は, LLMのリコール能力がプロンプトの内容に影響を及ぼすだけでなく, トレーニングデータのバイアスによって損なわれる可能性があることを示す。
論文 参考訳(メタデータ) (2024-04-13T01:13:59Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Identifying Factual Inconsistencies in Summaries: Grounding LLM Inference via Task Taxonomy [48.29181662640212]
事実的矛盾は、生成モデルによる忠実な要約にとって重要なハードルとなる。
我々は,要約中の不整合事実のキーエラータイプを集約し,ゼロショットと教師付きパラダイムの両方を容易にするためにそれらを組み込んだ。
論文 参考訳(メタデータ) (2024-02-20T08:41:23Z) - Enhancing Large Language Model Performance To Answer Questions and
Extract Information More Accurately [2.1715455600756646]
大きな言語モデル(LLM)は質問に対する応答を生成する。
それらの効果は、答えの最適でない品質や、質問に対する正確な回答を提供するための失敗によってしばしば妨げられる。
これらの課題に対処するため、モデルを改善するためのフィードバックやサンプルを含む、微調整プロセスが採用されている。
論文 参考訳(メタデータ) (2024-01-27T00:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。