論文の概要: LLM-FuncMapper: Function Identification for Interpreting Complex Clauses
in Building Codes via LLM
- arxiv url: http://arxiv.org/abs/2308.08728v1
- Date: Thu, 17 Aug 2023 01:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:26:16.967434
- Title: LLM-FuncMapper: Function Identification for Interpreting Complex Clauses
in Building Codes via LLM
- Title(参考訳): LLM-FuncMapper:LLMによる複雑なクローズの解釈のための関数同定
- Authors: Zhe Zheng, Ke-Yin Chen, Xin-Yu Cao, Xin-Zheng Lu, Jia-Rui Lin
- Abstract要約: LLM-FuncMapperは、様々な規制条項を解釈するために必要な事前定義された関数を特定するアプローチである。
ほぼ100%のコンピュータ処理可能な節をコンピュータ実行可能なコードとして解釈し表現することができる。
この研究は、複雑な規制条項を理解し解釈するためのLSMを導入する最初の試みである。
- 参考スコア(独自算出の注目度): 3.802984168589694
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As a vital stage of automated rule checking (ARC), rule interpretation of
regulatory texts requires considerable effort. However, interpreting regulatory
clauses with implicit properties or complex computational logic is still
challenging due to the lack of domain knowledge and limited expressibility of
conventional logic representations. Thus, LLM-FuncMapper, an approach to
identifying predefined functions needed to interpret various regulatory clauses
based on the large language model (LLM), is proposed. First, by systematically
analysis of building codes, a series of atomic functions are defined to capture
shared computational logics of implicit properties and complex constraints,
creating a database of common blocks for interpreting regulatory clauses. Then,
a prompt template with the chain of thought is developed and further enhanced
with a classification-based tuning strategy, to enable common LLMs for
effective function identification. Finally, the proposed approach is validated
with statistical analysis, experiments, and proof of concept. Statistical
analysis reveals a long-tail distribution and high expressibility of the
developed function database, with which almost 100% of computer-processible
clauses can be interpreted and represented as computer-executable codes.
Experiments show that LLM-FuncMapper achieve promising results in identifying
relevant predefined functions for rule interpretation. Further proof of concept
in automated rule interpretation also demonstrates the possibility of
LLM-FuncMapper in interpreting complex regulatory clauses. To the best of our
knowledge, this study is the first attempt to introduce LLM for understanding
and interpreting complex regulatory clauses, which may shed light on further
adoption of LLM in the construction domain.
- Abstract(参考訳): 自動ルールチェック(arc)の重要な段階として、規制テキストのルール解釈は相当な労力を要する。
しかし、ドメイン知識の欠如や従来の論理表現の表現性に制限があるため、暗黙的な性質や複雑な計算論理で規制条項を解釈することは依然として困難である。
そこで, llm-funcmapper では, 大言語モデル (llm) に基づいて, 各種規制条項を解釈するために必要な事前定義関数を同定する手法を提案する。
まず、構築コードの体系的解析により、暗黙的な性質と複雑な制約の共有計算ロジックをキャプチャし、規制条項を解釈するための共通のブロックのデータベースを作成する。
そして、思考連鎖を有するプロンプトテンプレートを開発し、分類に基づくチューニング戦略によりさらに強化し、効果的な関数識別のための共通llmを実現する。
最後に,提案手法を統計的分析,実験,概念実証によって検証する。
統計解析により,コンピュータ処理可能な文節の約100%をコンピュータ処理可能なコードとして解釈し,表現できる機能データベースの長テール分布と高表現性を明らかにした。
実験の結果, LLM-FuncMapper はルール解釈の事前定義関数の同定において有望な結果が得られることがわかった。
自動規則解釈における概念のさらなる証明は、複雑な規制条項の解釈におけるLLM-FuncMapperの可能性を示している。
我々の知る限り、この研究は、複雑な規制条項の理解と解釈のための LLM を導入する最初の試みであり、建設領域における LLM のさらなる採用に光を当てる可能性がある。
関連論文リスト
- Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and
Improving LLMs [95.41575344721691]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Large Language Models As Faithful Explainers [67.38301892818778]
大規模言語モデル(LLM)は近年,その豊富な内部知識と推論能力を活用することで,複雑なタスクに対処する技術に長けている。
我々は、LLMの自然言語形式で提供される説明の忠実性を改善するために、生成的説明フレームワークであるxLLMを導入する。
3つのNLUデータセットで行った実験により、xLLMは生成された説明の忠実性を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - In-context Learning Generalizes, But Not Always Robustly: The Case of
Syntax [40.40069999922899]
In-context Learning (ICL)は、大規模言語モデル(LLM)を監督する一般的な方法である。
ICLの普及と実用性にもかかわらず、このような方法で教師付きモデルがタスクの基盤構造を表すかどうかはほとんど分かっていない。
論文 参考訳(メタデータ) (2023-11-13T23:52:43Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - FedLogic: Interpretable Federated Multi-Domain Chain-of-Thought Prompt
Selection for Large Language Models [43.88318022426977]
マルチドメインCoTプロンプト選択ジレンマの理論的形式化とインタラクティブエミュレーションを導入する。
FedLogicは、最初の解釈可能で原則化された多ドメインCoTプロンプト選択アプローチである。
論文 参考訳(メタデータ) (2023-08-29T14:20:17Z) - LMs: Understanding Code Syntax and Semantics for Code Analysis [25.508254718438636]
我々は,大規模言語モデル(LLM)の機能と,ソフトウェア工学におけるコード解析の限界を評価する。
GPT4, GPT3.5, StarCoder, CodeLlama-13b-インストラクトという,最先端の4つの基礎モデルを採用している。
論文 参考訳(メタデータ) (2023-05-20T08:43:49Z) - ThinkSum: Probabilistic reasoning over sets using large language models [18.123895485602244]
本稿では,2段階の確率的推論パラダイムであるThinkSumを提案する。
我々は,LLM評価タスクのBIGベンチスイートにおけるThinkSumの可能性とメリットを実証する。
論文 参考訳(メタデータ) (2022-10-04T00:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。