論文の概要: Opportunities and Challenges of Applying Large Language Models in
Building Energy Efficiency and Decarbonization Studies: An Exploratory
Overview
- arxiv url: http://arxiv.org/abs/2312.11701v1
- Date: Mon, 18 Dec 2023 20:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 17:44:19.962051
- Title: Opportunities and Challenges of Applying Large Language Models in
Building Energy Efficiency and Decarbonization Studies: An Exploratory
Overview
- Title(参考訳): エネルギー効率・脱炭研究における大規模言語モデルの適用の可能性と課題:探索的概要
- Authors: Liang Zhang, Zhelun Chen
- Abstract要約: 本稿では,エネルギー効率と脱炭研究におけるLarge Language Models(LLMs)の適用,意義,可能性について検討する。
LLMの有望な可能性にもかかわらず、複雑で高価な計算、データのプライバシ、セキュリティと著作権、微調整されたLLMの複雑さ、自己整合性といった課題について議論する。
- 参考スコア(独自算出の注目度): 3.580636644178055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the rapid advancement and impressive capabilities of Large
Language Models (LLMs) have been evident across various domains. This paper
explores the application, implications, and potential of LLMs in building
energy efficiency and decarbonization studies. The wide-ranging capabilities of
LLMs are examined in the context of the building energy field, including
intelligent control systems, code generation, data infrastructure, knowledge
extraction, and education. Despite the promising potential of LLMs, challenges
including complex and expensive computation, data privacy, security and
copyright, complexity in fine-tuned LLMs, and self-consistency are discussed.
The paper concludes with a call for future research focused on the enhancement
of LLMs for domain-specific tasks, multi-modal LLMs, and collaborative research
between AI and energy experts.
- Abstract(参考訳): 近年、大規模言語モデル(llm)の急速な進歩と印象的な能力が様々な領域で明らかにされている。
本稿では, LLMのエネルギー効率と脱炭研究への応用, 意義, 可能性について検討する。
知的制御システム,コード生成,データ基盤,知識抽出,教育など,ビルディングエネルギー分野の文脈において,llmの広帯域化能力について検討した。
LLMの有望な可能性にもかかわらず、複雑で高価な計算、データのプライバシー、セキュリティと著作権、微調整されたLLMの複雑さ、自己整合性といった課題について議論する。
この論文は、ドメイン固有のタスクのためのLLMの強化、マルチモーダルLLM、AIとエネルギー専門家の協調研究に焦点を当てた将来の研究の呼びかけで締めくくっている。
関連論文リスト
- A Survey on Large Language Models with some Insights on their Capabilities and Limitations [0.3222802562733786]
大規模言語モデル(LLM)は、様々な言語関連タスクで顕著なパフォーマンスを示す。
LLMは、そのコア機能を超えて、創発的な能力を示す。
本稿では,これらの機能を実現する基盤となるコンポーネント,スケーリング機構,アーキテクチャ戦略について検討する。
論文 参考訳(メタデータ) (2025-01-03T21:04:49Z) - A Comprehensive Survey and Guide to Multimodal Large Language Models in Vision-Language Tasks [5.0453036768975075]
MLLM(Large Language Model)は、テキスト、画像、ビデオ、オーディオを統合し、モーダルな理解と生成のためのAIシステムを実現する。
Bookは、スケーラビリティ、堅牢性、およびクロスモーダル学習における重要な課題に対処しながら、MLLM実装の顕著な点について検討している。
倫理的考察、責任あるAI開発、そして今後の方向性に関する議論をまとめると、この権威あるリソースは理論的な枠組みと実践的な洞察の両方を提供する。
論文 参考訳(メタデータ) (2024-11-09T20:56:23Z) - Decoding Large-Language Models: A Systematic Overview of Socio-Technical Impacts, Constraints, and Emerging Questions [1.1970409518725493]
この記事では、倫理的考察とともに、社会に肯定的な影響を与える可能性のある適用領域を強調します。
これには、開発に関する責任ある考慮、アルゴリズムの改善、倫理的課題、社会的影響が含まれる。
論文 参考訳(メタデータ) (2024-09-25T14:36:30Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - The Price of Prompting: Profiling Energy Use in Large Language Models Inference [5.254805405012678]
本稿では,大規模言語モデル推論プロセスにおいて消費されるエネルギーを監視し,分析するフレームワークであるMELODIを紹介する。
MELODIを使用して生成されたデータセットは、幅広いLLMデプロイメントフレームワーク、複数の言語モデル、広範なプロンプトデータセットを含んでいる。
その結果,エネルギー効率の相違が指摘され,持続可能対策の最適化と導入の十分な範囲が示唆された。
論文 参考訳(メタデータ) (2024-07-04T12:16:28Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Evolutionary Computation in the Era of Large Language Model: Survey and Roadmap [26.959633651475016]
大規模言語モデル(LLM)と進化的アルゴリズム(EA)の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
LLMに固有の豊富なドメイン知識により、EAはよりインテリジェントな検索を行うことができる。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
論文 参考訳(メタデータ) (2024-01-18T14:58:17Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。