論文の概要: GPT Models in Construction Industry: Opportunities, Limitations, and a
Use Case Validation
- arxiv url: http://arxiv.org/abs/2305.18997v1
- Date: Tue, 30 May 2023 12:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:22:17.111282
- Title: GPT Models in Construction Industry: Opportunities, Limitations, and a
Use Case Validation
- Title(参考訳): 建設業におけるGPTモデル--機会・限界・ユースケース検証
- Authors: Abdullahi Saka, Ridwan Taiwo, Nurudeen Saka, Babatunde Salami, Saheed
Ajayi, Kabiru Akande, and Hadi Kazemi
- Abstract要約: 本研究は,建設業におけるGPTモデルの評価を目的とした。
その結果,プロジェクトライフサイクル全体を通してGPTモデルの可能性が明らかになった。
GPTモデルを活用する上での課題が強調され、材料選択と最適化のためのユースケースプロトタイプが開発されている。
- 参考スコア(独自算出の注目度): 3.378773915814389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models(LLMs) trained on large data sets came into prominence
in 2018 after Google introduced BERT. Subsequently, different LLMs such as GPT
models from OpenAI have been released. These models perform well on diverse
tasks and have been gaining widespread applications in fields such as business
and education. However, little is known about the opportunities and challenges
of using LLMs in the construction industry. Thus, this study aims to assess GPT
models in the construction industry. A critical review, expert discussion and
case study validation are employed to achieve the study objectives. The
findings revealed opportunities for GPT models throughout the project
lifecycle. The challenges of leveraging GPT models are highlighted and a use
case prototype is developed for materials selection and optimization. The
findings of the study would be of benefit to researchers, practitioners and
stakeholders, as it presents research vistas for LLMs in the construction
industry.
- Abstract(参考訳): 大規模なデータセットでトレーニングされた大規模言語モデル(llm)は、googleがbertを導入した2018年に注目を集めた。
その後、OpenAI の GPT モデルなど様々な LLM がリリースされた。
これらのモデルは様々なタスクでうまく動作し、ビジネスや教育といった分野で広く応用されている。
しかし, 建設業における LLM の利用機会や課題についてはほとんど分かっていない。
そこで本研究では,建設業におけるGPTモデルの評価を目的とした。
研究目的を達成するために,批判的レビュー,エキスパートディスカッション,ケーススタディ検証が採用されている。
その結果,プロジェクトライフサイクル全体を通してGPTモデルの可能性が明らかになった。
GPTモデルを活用する上での課題が強調され,材料選択と最適化のためのユースケースプロトタイプが開発された。
この研究の成果は、建設業界におけるLLMの研究ビスタを示すため、研究者、実践者、ステークホルダーに利益をもたらすだろう。
関連論文リスト
- Privacy Preserving Prompt Engineering: A Survey [14.402638881376419]
事前学習された言語モデル(PLM)は、広範囲の自然言語処理(NLP)タスクを解くのに非常に有能である。
その結果、これらのモデルのサイズは近年顕著に拡大している。
プライバシーに関する懸念は、広く使われている中で大きな障害となっている。
論文 参考訳(メタデータ) (2024-04-09T04:11:25Z) - A Review of Multi-Modal Large Language and Vision Models [1.9685736810241874]
大規模言語モデル(LLM)が研究と応用の焦点として登場した。
近年、LLMはマルチモーダル大言語モデル(MM-LLM)に拡張されている。
本稿では,近年のMM-LLMとともに,マルチモーダル機能を有するLLMの現状を概観する。
論文 参考訳(メタデータ) (2024-03-28T15:53:45Z) - Data Augmentation using LLMs: Data Perspectives, Learning Paradigms and
Challenges [49.039080454730566]
データ拡張(DA)は、モデルパフォーマンスを向上させるための重要なテクニックとして現れている。
本稿では,大規模言語モデル(LLM)がDAに与える影響について検討する。
論文 参考訳(メタデータ) (2024-03-05T14:11:54Z) - A Survey on Knowledge Distillation of Large Language Models [102.84645991075283]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - A Survey of GPT-3 Family Large Language Models Including ChatGPT and
GPT-4 [4.206175795966694]
LLM(Large Language Model)は、モデルのサイズを拡大し、コーパスを事前訓練し、計算することで得られる訓練済み言語モデルの特殊なクラスである。
我々は GPT-3 とその後継 OpenAI モデルである ChatGPT と GPT4 を GPT-3 ファミリー大言語モデル (GLLM) と呼ぶ。
論文 参考訳(メタデータ) (2023-10-04T16:37:05Z) - Black-Box Analysis: GPTs Across Time in Legal Textual Entailment Task [17.25356594832692]
本稿では,COLIEE Task 4 データセット上での GPT-3.5 (ChatGPT) と GPT-4 の性能解析を行う。
予備的な実験結果から,法的なテキスト・エンタテインメント・タスクの処理におけるモデルの強みや弱点に関する興味深い知見が得られた。
論文 参考訳(メタデータ) (2023-09-11T14:43:54Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - Replicability Study: Corpora For Understanding Simulink Models &
Projects [8.261117235807607]
本研究は, 前回のSimulinkモデル研究で採用した方法論とデータソースをレビューし, SLNETを用いて過去の解析を再現する。
オープンソースSimulinkモデルは優れたモデリングプラクティスに従っており、プロプライエタリモデルに匹敵するサイズと特性を持つモデルを含んでいることがわかった。
論文 参考訳(メタデータ) (2023-08-03T18:14:54Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities
and Future Opportunities [68.86209486449924]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。