論文の概要: Enhancing Building Semantics Preservation in AI Model Training with Large Language Model Encodings
- arxiv url: http://arxiv.org/abs/2602.15791v1
- Date: Tue, 17 Feb 2026 18:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.160625
- Title: Enhancing Building Semantics Preservation in AI Model Training with Large Language Model Encodings
- Title(参考訳): 大規模言語モデルエンコーディングによるAIモデルトレーニングにおけるセマンティックス保存の強化
- Authors: Suhyung Jang, Ghang Lee, Jaekun Lee, Hyunjun Lee,
- Abstract要約: 本研究では,大規模言語モデル (LLM) をエンコーディングとして活用し,意味論の微妙な区別を抑える新しい学習手法を提案する。
提案手法は,5つの高層住宅情報モデルにまたがって,42の建物サブタイプを分類するために,GraphSAGEモデルを訓練して評価した。
LLMエンコーディングは従来の1ホットベースラインよりも優れ、ラマ3埋め込みは0.8766の重み付き平均F1スコアを達成し、一方ホットエンコーディングでは0.8475よりも優れていた。
- 参考スコア(独自算出の注目度): 1.2278711963663465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate representation of building semantics, encompassing both generic object types and specific subtypes, is essential for effective AI model training in the architecture, engineering, construction, and operation (AECO) industry. Conventional encoding methods (e.g., one-hot) often fail to convey the nuanced relationships among closely related subtypes, limiting AI's semantic comprehension. To address this limitation, this study proposes a novel training approach that employs large language model (LLM) embeddings (e.g., OpenAI GPT and Meta LLaMA) as encodings to preserve finer distinctions in building semantics. We evaluated the proposed method by training GraphSAGE models to classify 42 building object subtypes across five high-rise residential building information models (BIMs). Various embedding dimensions were tested, including original high-dimensional LLM embeddings (1,536, 3,072, or 4,096) and 1,024-dimensional compacted embeddings generated via the Matryoshka representation model. Experimental results demonstrated that LLM encodings outperformed the conventional one-hot baseline, with the llama-3 (compacted) embedding achieving a weighted average F1-score of 0.8766, compared to 0.8475 for one-hot encoding. The results underscore the promise of leveraging LLM-based encodings to enhance AI's ability to interpret complex, domain-specific building semantics. As the capabilities of LLMs and dimensionality reduction techniques continue to evolve, this approach holds considerable potential for broad application in semantic elaboration tasks throughout the AECO industry.
- Abstract(参考訳): ジェネリックオブジェクトタイプと特定のサブタイプの両方を含む、ビルドセマンティクスの正確な表現は、アーキテクチャ、エンジニアリング、構築、運用(AECO)産業における効果的なAIモデルのトレーニングに不可欠である。
従来の符号化手法(例: 1-hot)は、しばしば近縁なサブタイプ間のニュアンスな関係を伝達できず、AIの意味的理解を制限する。
この制限に対処するために,大規模言語モデル(LLM)の埋め込み(例えば,OpenAI GPT,Meta LLaMA)をエンコーディングとして利用し,セマンティクス構築においてより微細な区別を保つ新しいトレーニング手法を提案する。
提案手法は,高層住宅情報モデル(BIM)を用いて,42の建物サブタイプを分類するために,GraphSAGEモデルを訓練して評価した。
従来の高次元LLM埋め込み(1,536,3,072,4,096)や,Matryoshka表現モデルにより生成された1,024次元のコンパクト埋め込みなど,各種の埋込み寸法を試験した。
LLMエンコーディングは従来の1ホットベースラインよりも優れており、Lama-3 (compacted) 埋め込みは0.8766の重み付き平均F1スコアを実現し、一方ホットエンコーディングでは0.8475よりも優れていた。
結果は、LLMベースのエンコーディングを活用して、複雑なドメイン固有のビルディングセマンティクスを解釈するAIの能力を強化するという約束を強調している。
LLMの能力と次元還元技術が進化を続けるにつれて、この手法はAECO産業全体において意味的エラボレーションタスクに広く応用される可能性がある。
関連論文リスト
- LM-Lexicon: Improving Definition Modeling via Harmonizing Semantic Experts [9.056157892858474]
LM-Lexiconは、データクラスタリング、セマンティックエキスパートラーニング、モデルマージを取り入れた革新的な定義モデリングアプローチである。
我々の研究は、セマンティック集約型アプリケーションのための効率的な言語モデルの開発に関する洞察を提供しながら、定義モデリングを進めていく。
論文 参考訳(メタデータ) (2026-02-15T09:18:22Z) - Youtu-LLM: Unlocking the Native Agentic Potential for Lightweight Large Language Models [78.73992315826035]
ネイティブエージェントインテリジェンスと高い計算効率を調和させる軽量言語モデルであるYoutu-LLMを紹介する。
Youtu-LLMは、スクラッチから体系的に推論と計画能力の育成まで事前訓練されている。
論文 参考訳(メタデータ) (2025-12-31T04:25:11Z) - Large Language Model enabled Mathematical Modeling [2.132096006921049]
本研究では,Large Language Models (LLMs) の自然言語理解とコード生成による定式化ギャップを埋める可能性について検討する。
DeepSeek-R1は、強化学習で訓練された費用効率で高性能なモデルである。
本手法は,基礎的評価,幻覚分類の発達,緩和戦略の適用を含む。
論文 参考訳(メタデータ) (2025-10-22T17:41:42Z) - ShishuLM: Lightweight Language Model with Hybrid Decoder-MLP Architecture and Paired Weight Sharing [0.5565728870245015]
本稿では,パラメータカウントとキーバリュー(KV)キャッシュ要求の両方を削減できる,効率的な言語モデルアーキテクチャであるShishuLMを紹介した。
以上の結果から,ShshuLMは最大25%のメモリ要求を削減し,トレーニングと推論の両方で最大40%のレイテンシ向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-10-13T04:04:54Z) - Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - Enhancing Domain-Specific Encoder Models with LLM-Generated Data: How to Leverage Ontologies, and How to Do Without Them [9.952432291248954]
限られたデータを持つ領域におけるエンコーダモデルの連続事前学習におけるLLM生成データの利用について検討する。
侵入生物学における埋め込みモデルの性能を評価するためのベンチマークをコンパイルする。
提案手法は,小さなエンコーダモデルのドメイン固有理解を向上させるために,完全自動パイプラインを実現することを実証した。
論文 参考訳(メタデータ) (2025-03-27T21:51:24Z) - Latent Thought Models with Variational Bayes Inference-Time Computation [52.63299874322121]
ラテント思考モデル(LTM)は、ラテント空間における明示的な事前モデルに従う明示的なラテント思考ベクトルを包含する。
LTMは自己回帰モデルや離散拡散モデルよりも優れたサンプルおよびパラメータ効率を示す。
論文 参考訳(メタデータ) (2025-02-03T17:50:34Z) - Large Concept Models: Language Modeling in a Sentence Representation Space [62.73366944266477]
本稿では,概念を命名した明示的な高レベルな意味表現に基づくアーキテクチャの試みを行う。
概念は言語とモダリティに依存しないものであり、フローにおけるより高いレベルの考えや行動を表している。
本モデルでは,多くの言語に対して,ゼロショットの一般化性能が顕著であることを示す。
論文 参考訳(メタデータ) (2024-12-11T23:36:20Z) - LLM as a code generator in Agile Model Driven Development [0.032771631221674334]
この研究は、これらの課題を克服するための実行可能な戦略としてモデル駆動開発(MDD)を擁護します。
我々は GPT4 をコードジェネレータとして利用する Agile Model Driven Development (AMDD) アプローチを提案する。
GPT4自動生成機能を適用すると、JADEおよびPADEフレームワークと互換性のあるJavaとPythonコードが生成される。
論文 参考訳(メタデータ) (2024-10-24T07:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。