論文の概要: Using Large Language Models for a standard assessment mapping for sustainable communities
- arxiv url: http://arxiv.org/abs/2411.00208v1
- Date: Thu, 31 Oct 2024 21:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:54.479991
- Title: Using Large Language Models for a standard assessment mapping for sustainable communities
- Title(参考訳): 持続可能なコミュニティのための標準アセスメントマッピングにおける大規模言語モデルの利用
- Authors: Jonveaux Luc,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いた都市持続可能性評価への新たなアプローチを提案する。
この方法論には、標準定義に基づくカスタムプロンプトの開発と、パリ参加予算案の527のプロジェクトとProBONO Horizon 2020プロジェクトの398のアクティビティの2つの異なるデータセットへの適用が含まれている。
本稿では, 従来の人間による評価よりも, 大幅な省エネ, 整合性の向上など, この手法の利点について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents a new approach to urban sustainability assessment through the use of Large Language Models (LLMs) to streamline the use of the ISO 37101 framework to automate and standardise the assessment of urban initiatives against the six "sustainability purposes" and twelve "issues" outlined in the standard. The methodology includes the development of a custom prompt based on the standard definitions and its application to two different datasets: 527 projects from the Paris Participatory Budget and 398 activities from the PROBONO Horizon 2020 project. The results show the effectiveness of LLMs in quickly and consistently categorising different urban initiatives according to sustainability criteria. The approach is particularly promising when it comes to breaking down silos in urban planning by providing a holistic view of the impact of projects. The paper discusses the advantages of this method over traditional human-led assessments, including significant time savings and improved consistency. However, it also points out the importance of human expertise in interpreting results and ethical considerations. This study hopefully can contribute to the growing body of work on AI applications in urban planning and provides a novel method for operationalising standardised sustainability frameworks in different urban contexts.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を用いた都市持続可能性評価への新たなアプローチを提案する。
この方法論には、標準定義に基づくカスタムプロンプトの開発と、パリ参加予算案の527のプロジェクトとProBONO Horizon 2020プロジェクトの398のアクティビティの2つの異なるデータセットへの適用が含まれている。
その結果, 持続可能性基準に従って, 異なる都市イニシアチブを迅速かつ一貫して分類する上でのLCMの有効性が示された。
このアプローチは、都市計画におけるサイロの解体に関して特に有望であり、プロジェクトの影響の全体像を提供する。
本稿では, 従来の人間による評価よりも, 大幅な省エネ, 整合性の向上など, この手法の利点について論じる。
しかし、結果の解釈や倫理的考察における人間の専門性の重要性も指摘されている。
この研究は、都市計画におけるAIアプリケーションの開発に寄与し、異なる都市環境における標準化された持続可能性フレームワークを運用するための新しい方法を提供する。
関連論文リスト
- CityGPT: Empowering Urban Spatial Cognition of Large Language Models [7.40606412920065]
強力な言語生成と推論機能を備えた大規模言語モデル(LLM)は、すでに多くのドメインで成功している。
しかし、物理世界のコーパスが不足し、訓練中に知識が不足しているため、都市空間における多くの現実的なタスクを解決できないのが普通である。
都市空間の理解と関連する都市課題の解決におけるLCMの能力向上のための体系的枠組みであるCityGPTを提案する。
論文 参考訳(メタデータ) (2024-06-20T02:32:16Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - The BiGGen Bench: A Principled Benchmark for Fine-grained Evaluation of Language Models with Language Models [94.31327813151208]
BiGGen Benchは、77のタスクにわたるLMの9つの異なる能力を徹底的に評価するために設計された、原則化された世代ベンチマークである。
BiGGen Benchの重要な特徴は、インスタンス固有の評価基準の使用であり、人間の評価のニュアンスな識別を忠実に反映している。
論文 参考訳(メタデータ) (2024-06-09T12:30:30Z) - Large language model empowered participatory urban planning [5.402147437950729]
本研究では,大規模言語モデル(LLM)を参加型プロセスに統合した革新的な都市計画手法を提案する。
このフレームワークは、LLMエージェントをベースとして、役割プレイ、共同生成、フィードバックで構成され、コミュニティレベルの土地利用タスクを1000の異なる関心事に対応させて解決する。
論文 参考訳(メタデータ) (2024-01-24T10:50:01Z) - Post Turing: Mapping the landscape of LLM Evaluation [22.517544562890663]
本稿では,アラン・チューリングによる基礎的疑問からAI研究の現代まで,大規模言語モデル (LLM) 評価の歴史的軌跡を追究する。
これらのモデルのより広範な社会的意味を考慮し、統一的な評価システムの必要性を強調した。
この作業は、AIコミュニティがLLM評価の課題に協力して対処し、信頼性、公正性、社会的な利益を保証するために役立ちます。
論文 参考訳(メタデータ) (2023-11-03T17:24:50Z) - Collaborative Evaluation: Exploring the Synergy of Large Language Models
and Humans for Open-ended Generation Evaluation [71.76872586182981]
大規模言語モデル(LLM)は、人間の評価に代わるスケーラブルで費用対効果の高い代替品として登場した。
本稿では,タスク固有の基準のチェックリストとテキストの詳細な評価を含む協調評価パイプラインCoEvalを提案する。
論文 参考訳(メタデータ) (2023-10-30T17:04:35Z) - L-Eval: Instituting Standardized Evaluation for Long Context Language
Models [91.05820785008527]
長い文脈言語モデル(LCLM)のより標準化された評価を行うためにL-Evalを提案する。
20のサブタスク、508の長いドキュメント、2000以上の人間ラベルのクエリ応答対を含む新しい評価スイートを構築した。
その結果、一般的なn-gramマッチングの指標は人間の判断とよく相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:59:41Z) - Towards Pragmatic Production Strategies for Natural Language Generation
Tasks [2.446833988895108]
本稿では,自然言語生成システムの設計のための概念的枠組みを提案する。
この一般的な枠組みでは、効率は生産と理解コストの相似的な規制として特徴づけられる。
現代の統計手法を用いて,目標,コスト,実用性を推定するための具体的な提案を行う。
論文 参考訳(メタデータ) (2022-10-23T19:30:42Z) - ViLPAct: A Benchmark for Compositional Generalization on Multimodal
Human Activities [68.93275430102118]
ViLPActは人間の活動計画のためのビジョン言語ベンチマークである。
データセットは、クラウドソーシングを通じて意図を持って拡張されたチャレードから2.9kのビデオで構成されている。
論文 参考訳(メタデータ) (2022-10-11T15:50:51Z) - A Proposed Framework for the Comprehensive Scalability Assessment of
ICTD Projects [0.0]
ICTDプロジェクトのスケーラビリティは、この分野では無視されている必須のトピックである。
本研究では,システム理論と増幅理論を用いたCSAF(Comprehensive Scalability Assessment Framework)を提案する。
論文 参考訳(メタデータ) (2021-08-22T15:29:53Z) - Forecasting: theory and practice [65.71277206849244]
本稿は、理論と予測の実践について、非体系的なレビューを提供する。
我々は、幅広い理論的、最先端のモデル、方法、原則、アプローチの概要を提供する。
そして、そのような理論概念が様々な実生活の文脈でどのように適用されるかを示す。
論文 参考訳(メタデータ) (2020-12-04T16:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。