論文の概要: Group Reasoning Emission Estimation Networks
- arxiv url: http://arxiv.org/abs/2502.06874v1
- Date: Sat, 08 Feb 2025 09:02:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:10:44.989092
- Title: Group Reasoning Emission Estimation Networks
- Title(参考訳): グループ推論エミッション推定ネットワーク
- Authors: Yanming Guo, Xiao Qian, Kevin Credit, Jin Ma,
- Abstract要約: 企業レベルの排出量推定を標準化する,AI駆動型炭素会計フレームワークを導入する。
大規模言語モデル(LLM)を用いた新しい推論手法を用いる。
1,114のAICSカテゴリの実験により、最先端の性能が得られる。
- 参考スコア(独自算出の注目度): 11.479035866165926
- License:
- Abstract: Accurate greenhouse gas (GHG) emission reporting is critical for governments, businesses, and investors. However, adoption remains limited particularly among small and medium enterprises due to high implementation costs, fragmented emission factor databases, and a lack of robust sector classification methods. To address these challenges, we introduce Group Reasoning Emission Estimation Networks (GREEN), an AI-driven carbon accounting framework that standardizes enterprise-level emission estimation, constructs a large-scale benchmark dataset, and leverages a novel reasoning approach with large language models (LLMs). Specifically, we compile textual descriptions for 20,850 companies with validated North American Industry Classification System (NAICS) labels and align these with an economic model of carbon intensity factors. By reframing sector classification as an information retrieval task, we fine-tune Sentence-BERT models using a contrastive learning loss. To overcome the limitations of single-stage models in handling thousands of hierarchical categories, we propose a Group Reasoning method that ensembles LLM classifiers based on the natural NAICS ontology, decomposing the task into multiple sub-classification steps. We theoretically prove that this approach reduces classification uncertainty and computational complexity. Experiments on 1,114 NAICS categories yield state-of-the-art performance (83.68% Top-1, 91.47% Top-10 accuracy), and case studies on 20 companies report a mean absolute percentage error (MAPE) of 45.88%. The project is available at: https://huggingface.co/datasets/Yvnminc/ExioNAICS.
- Abstract(参考訳): 正確な温室効果ガス排出報告(GHG)は、政府、企業、投資家にとって重要である。
しかし、高実装コスト、断片化された排出要因データベース、堅牢なセクター分類方法の欠如などにより、特に中小企業では採用が限られている。
これらの課題に対処するため,企業レベルの排出量推定を標準化するAI駆動型炭素会計フレームワークであるGREEN(Group Reasoning Emission Estimation Networks)を導入し,大規模ベンチマークデータセットを構築し,大規模言語モデル(LLM)による新たな推論アプローチを活用する。
具体的には、北米産業分類システム(NAICS)のラベルを検証した20,850社を対象に、テキストによる記述をコンパイルし、これらを炭素強度因子の経済モデルと整合させる。
セクター分類を情報検索タスクとして再定義することにより、コントラスト学習損失を用いたSentence-BERTモデルを微調整する。
何千もの階層的カテゴリを扱う場合の単一ステージモデルの限界を克服するために,自然のNAICSオントロジーに基づいてLLM分類器をアンサンブルし,タスクを複数のサブクラス化ステップに分解するグループ推論手法を提案する。
このアプローチが分類の不確実性と計算複雑性を低減することを理論的に証明する。
1,114のAICSカテゴリの実験では、最先端のパフォーマンス(83.68%のTop-1、91.47%のTop-10の精度)が得られ、20社のケーススタディでは平均絶対パーセンテージ誤差(MAPE)が45.88%と報告されている。
このプロジェクトは、https://huggingface.co/datasets/Yvnminc/ExioNAICSで利用可能である。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Explainable automatic industrial carbon footprint estimation from bank transaction classification using natural language processing [6.354358255072839]
提案手法は, 銀行取引に関連するCO2排出量を推定する。
局所的解釈可能なモデルを用いて,トランザクション記述から抽出した入力項の影響を評価する。
論文 参考訳(メタデータ) (2024-05-23T12:43:06Z) - Language Model Cascades: Token-level uncertainty and beyond [65.38515344964647]
言語モデル(LM)の最近の進歩により、複雑なNLPタスクの品質が大幅に向上した。
Cascadingは、より好ましいコスト品質のトレードオフを達成するためのシンプルな戦略を提供する。
トークンレベルの不確実性を学習後遅延ルールに組み込むことで,単純な集約戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-15T21:02:48Z) - Investigating the Limitation of CLIP Models: The Worst-Performing
Categories [53.360239882501325]
コントラスト言語-画像事前学習(CLIP)は、自然言語を視覚概念に統合する基礎モデルを提供する。
通常、十分に設計されたテキストプロンプトによって、多くの領域で満足な全体的な精度が達成できると期待されている。
しかし、最悪のカテゴリにおけるパフォーマンスは、全体的なパフォーマンスよりも著しく劣っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T05:37:33Z) - Prompt Tuned Embedding Classification for Multi-Label Industry Sector Allocation [2.024620791810963]
本研究では,マルチラベルテキスト分類のためのPrompt Tuningとベースラインの性能をベンチマークする。
企業を投資会社の独自産業分類に分類するために適用される。
このモデルのパフォーマンスは、よく知られた企業とあまり知られていない企業の両方で一貫していることを確認します。
論文 参考訳(メタデータ) (2023-09-21T13:45:32Z) - Supply chain emission estimation using large language models [15.605998085195314]
ドメイン適応NLPファンデーションモデルを用いて、スコープ3排出量を推定する第一種フレームワークを提案する。
提案手法の性能をTF-IDF, word2Vec, Zero といった最先端のテキスト分類モデルと比較する。
論文 参考訳(メタデータ) (2023-08-03T13:06:37Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - Open World Classification with Adaptive Negative Samples [89.2422451410507]
オープンワールド分類は、自然言語処理における重要な実践的妥当性と影響を伴う課題である。
そこで本研究では, アンダーライン適応型アンダーラインアンプ (ANS) に基づいて, 学習段階における効果的な合成オープンカテゴリサンプルを生成する手法を提案する。
ANSは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-09T21:12:46Z) - A Lottery Ticket Hypothesis Framework for Low-Complexity Device-Robust
Neural Acoustic Scene Classification [78.04177357888284]
デバイス・ロバスト音響シーン分類(ASC)のためのデータ拡張、知識伝達、プルーニング、量子化を組み合わせた新しいニューラルモデル圧縮戦略を提案する。
本稿では,低複雑マルチデバイスASCのためのアコースティック・ロッテリー(Austratic Lottery)という,効率的なジョイント・フレームワークについて報告する。
論文 参考訳(メタデータ) (2021-07-03T16:25:24Z) - Large Scale Legal Text Classification Using Transformer Models [0.0]
本研究では, トランスフォーマーモデルの性能と, 生成前訓練, 段階的凍結, 差別的学習率などの戦略を組み合わせて検討した。
WeLEXは、アブレーション研究において、言語モデルの微調整や段階的凍結といった個々のステップの影響を定量化する。
論文 参考訳(メタデータ) (2020-10-24T11:03:01Z) - Needle in a Haystack: Label-Efficient Evaluation under Extreme Class
Imbalance [20.491690754953943]
本稿では,適応的重要度サンプリングに基づくオンライン評価フレームワークを開発する。
実験では、固定ラベル予算において最先端のMSEよりも平均的なMSEが優れていることを示した。
論文 参考訳(メタデータ) (2020-06-12T06:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。