論文の概要: Extracting Structured Requirements from Unstructured Building Technical Specifications for Building Information Modeling
- arxiv url: http://arxiv.org/abs/2508.13833v1
- Date: Tue, 19 Aug 2025 13:55:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.942118
- Title: Extracting Structured Requirements from Unstructured Building Technical Specifications for Building Information Modeling
- Title(参考訳): 建築情報モデリングのための非構造建築技術仕様からの構造要求抽出
- Authors: Insaf Nahri, Romain Pinquié, Philippe Véron, Nicolas Bus, Mathieu Thorel,
- Abstract要約: 本研究では,建築情報モデリングと自然言語処理(NLP)の統合について検討する。
建設業界における非構造化のフランス建築技術仕様書からの要求の抽出を自動化することを目的としている。
その結果,CamemBERTとFr_core_news_lgはNERにおいて優れた性能を示し,F1スコアは90%以上,Random ForestはREにおいて最も有効であり,F1スコアは80%以上であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This study explores the integration of Building Information Modeling (BIM) with Natural Language Processing (NLP) to automate the extraction of requirements from unstructured French Building Technical Specification (BTS) documents within the construction industry. Employing Named Entity Recognition (NER) and Relation Extraction (RE) techniques, the study leverages the transformer-based model CamemBERT and applies transfer learning with the French language model Fr\_core\_news\_lg, both pre-trained on a large French corpus in the general domain. To benchmark these models, additional approaches ranging from rule-based to deep learning-based methods are developed. For RE, four different supervised models, including Random Forest, are implemented using a custom feature vector. A hand-crafted annotated dataset is used to compare the effectiveness of NER approaches and RE models. Results indicate that CamemBERT and Fr\_core\_news\_lg exhibited superior performance in NER, achieving F1-scores over 90\%, while Random Forest proved most effective in RE, with an F1 score above 80\%. The outcomes are intended to be represented as a knowledge graph in future work to further enhance automatic verification systems.
- Abstract(参考訳): 本研究は,建設業界における建築情報モデリング (BIM) と自然言語処理 (NLP) を統合し,非構造化の仏建築技術仕様 (BTS) 文書からの要件抽出を自動化することを目的とする。
The study using Named Entity Recognition (NER) and Relation extract (RE) technique, using the transformer-based model CamemBERT and applied transfer learning with the French language model Fr\_core\_news\_lg, both were pre-trained on a large French corpus in the general domain。
これらのモデルをベンチマークするために、ルールベースからディープラーニングベースの手法まで、さらなるアプローチが開発されている。
REでは、Random Forestを含む4つの異なる教師付きモデルがカスタム機能ベクターを使用して実装されている。
手作りの注釈付きデータセットを使用して、NERアプローチとREモデルの有効性を比較する。
その結果,CamemBERTとFr\_core\_news\_lgはNERにおいて優れ,F1スコアは90%以上,Random ForestはREにおいて最も有効であり,F1スコアは80%以上であった。
結果は、自動検証システムをさらに強化するために、今後の作業において知識グラフとして表現されることを意図している。
関連論文リスト
- ORIGAMI: A generative transformer architecture for predictions from semi-structured data [3.5639148953570836]
ORIGAMIは、ネストされたキー/バリューペアを処理するトランスフォーマーベースのアーキテクチャである。
分類を次点予測として再構成することで、ORIGAMIはシングルラベルとマルチラベルの両方のタスクを自然に処理する。
論文 参考訳(メタデータ) (2024-12-23T07:21:17Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Leveraging Advantages of Interactive and Non-Interactive Models for
Vector-Based Cross-Lingual Information Retrieval [12.514666775853598]
対話型モデルと非対話型モデルの利点を活用する新しいフレームワークを提案する。
非対話型アーキテクチャ上でモデルを構築できる半対話型機構を導入するが、各文書を関連付けられた多言語クエリと共にエンコードする。
本手法は,計算効率を維持しながら検索精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-03T03:03:19Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Application of Pre-training Models in Named Entity Recognition [5.285449619478964]
本稿では,BERT,ERNIE,ERNIE2.0-tiny,RoBERTaの4つの事前学習モデルのアーキテクチャと事前学習タスクを紹介する。
我々はこれらの事前学習モデルをNERタスクに微調整して適用し、異なるモデルアーキテクチャと事前学習タスクがNERタスクに与える影響を比較した。
実験の結果,RoBERTaはMSRA-2006データセット上で最先端の結果を得た。
論文 参考訳(メタデータ) (2020-02-09T08:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。