論文の概要: Criteria for Credible AI-assisted Carbon Footprinting Systems: The Cases of Mapping and Lifecycle Modeling
- arxiv url: http://arxiv.org/abs/2509.00240v1
- Date: Fri, 29 Aug 2025 21:05:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.139308
- Title: Criteria for Credible AI-assisted Carbon Footprinting Systems: The Cases of Mapping and Lifecycle Modeling
- Title(参考訳): 信頼性AI支援カーボンフットプリントシステムの基準:マッピングとライフサイクルモデリングの事例
- Authors: Shaena Ulissi, Andrew Dumit, P. James Joyce, Krishna Rao, Steven Watson, Sangwon Suh,
- Abstract要約: 製品や材料に対する温室効果ガス(GHG)排出量を算出するAI支援システムを検証するための一連の基準を提案する。
このアプローチは、AI支援環境アセスメントツールを評価するための実践者、監査人、および標準機関の基盤として使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As organizations face increasing pressure to understand their corporate and products' carbon footprints, artificial intelligence (AI)-assisted calculation systems for footprinting are proliferating, but with widely varying levels of rigor and transparency. Standards and guidance have not kept pace with the technology; evaluation datasets are nascent; and statistical approaches to uncertainty analysis are not yet practical to apply to scaled systems. We present a set of criteria to validate AI-assisted systems that calculate greenhouse gas (GHG) emissions for products and materials. We implement a three-step approach: (1) Identification of needs and constraints, (2) Draft criteria development and (3) Refinements through pilots. The process identifies three use cases of AI applications: Case 1 focuses on AI-assisted mapping to existing datasets for corporate GHG accounting and product hotspotting, automating repetitive manual tasks while maintaining mapping quality. Case 2 addresses AI systems that generate complete product models for corporate decision-making, which require comprehensive validation of both component tasks and end-to-end performance. We discuss the outlook for Case 3 applications, systems that generate standards-compliant models. We find that credible AI systems can be built and that they should be validated using system-level evaluations rather than line-item review, with metrics such as benchmark performance, indications of data quality and uncertainty, and transparent documentation. This approach may be used as a foundation for practitioners, auditors, and standards bodies to evaluate AI-assisted environmental assessment tools. By establishing evaluation criteria that balance scalability with credibility requirements, our approach contributes to the field's efforts to develop appropriate standards for AI-assisted carbon footprinting systems.
- Abstract(参考訳): 企業や製品のカーボンフットプリントを理解するための圧力が高まる中、人工知能(AI)によるフットプリントの計算システムが増加しつつあるが、幅広いレベルの厳密さと透明性がある。
標準とガイダンスは技術に追随せず、評価データセットは生まれたばかりであり、不確実性分析に対する統計的アプローチは、スケールしたシステムに適用するには、まだ実用的ではない。
製品や材料に対する温室効果ガス(GHG)排出量を算出するAI支援システムを検証するための一連の基準を提案する。
我々は,(1)ニーズと制約の同定,(2)ドラフト基準の開発,(3)パイロットによるリファインメントという3段階のアプローチを実装した。
ケース1は、企業GHG会計とプロダクトホットスポットのための既存のデータセットへのAI支援マッピングに焦点を当て、マッピング品質を維持しながら反復的な手作業を自動化する。
ケース2は、企業意思決定のための完全な製品モデルを生成するAIシステムに対処する。
本稿では、標準に準拠したモデルを生成するシステムであるケース3アプリケーションの展望について論じる。
信頼性の高いAIシステムは構築可能であり、ベンチマークパフォーマンス、データ品質と不確実性の指標、透過的なドキュメントなど、ラインイットレビューではなくシステムレベルの評価を使用して検証されるべきである。
このアプローチは、AI支援環境アセスメントツールを評価するための実践者、監査人、および標準機関の基盤として使用することができる。
信頼性要件とスケーラビリティのバランスをとるための評価基準を確立することで,我々のアプローチは,AI支援炭素フットプリントシステムのための適切な標準を開発するための分野の取り組みに寄与する。
関連論文リスト
- SpecEval: Evaluating Model Adherence to Behavior Specifications [63.13000010340958]
提供者仕様に対してモデルを監査する自動化フレームワークを導入します。
私たちの中心となる焦点は、プロバイダ仕様とモデルアウトプット、および審査員としての自身のモデルの間の3つの方法の整合性にあります。
当社のフレームワークは、100以上の行動ステートメントにわたる6人の開発者から16のモデルに適用し、プロバイダ間で最大20%のコンプライアンスギャップを含む、体系的な不整合を見つけました。
論文 参考訳(メタデータ) (2025-09-02T16:18:40Z) - Insights Informed Generative AI for Design: Incorporating Real-world Data for Text-to-Image Output [51.88841610098437]
本稿では,DALL-E 3を材料データセットと統合して,サステナビリティ指標と材料利用の洞察を備えたAI設計を充実させるパイプラインを提案する。
我々は,(1) 生成AIによるプロンプトプロセスに先立ってユーザに対してサステナビリティの言及がなく,(2) プロンプト前にユーザと通信するサステナビリティの目標,(3) 生成AI出力に含まれる量的CO2eデータとともに通信するサステナビリティの目標である,という3つのユーザテストを通じてシステムを評価する。
論文 参考訳(メタデータ) (2025-06-17T22:33:11Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Toward an Evaluation Science for Generative AI Systems [22.733049816407114]
生成型AIシステムの評価科学の成熟を提唱する。
特に,評価指標を実世界のパフォーマンスに適用し,評価指標を反復的に洗練し,評価機関と基準を確立すること,の3つの重要な教訓を提示する。
論文 参考訳(メタデータ) (2025-03-07T11:23:48Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - Data-Centric Governance [6.85316573653194]
現在のAIガバナンスアプローチは、主に手作業によるレビューとドキュメントプロセスで構成されている。
データに作用し、データを生成し、データエンジニアリングを通じて構築される。
本研究では、データセットとアルゴリズムによる評価を通じて、ガバナンス要件の体系化について検討する。
論文 参考訳(メタデータ) (2023-02-14T07:22:32Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。