論文の概要: Discourse vs emissions: Analysis of corporate narratives, symbolic practices, and mimicry through LLMs
- arxiv url: http://arxiv.org/abs/2510.01222v1
- Date: Mon, 22 Sep 2025 12:26:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.851213
- Title: Discourse vs emissions: Analysis of corporate narratives, symbolic practices, and mimicry through LLMs
- Title(参考訳): 談話対エミッション:LLMを通しての企業物語・象徴的実践・模倣の分析
- Authors: Bertrand Kian Hassani, Yacoub Bahini, Rizwan Mushtaq,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いた米国上場企業828社間の開示成熟度を評価するための多次元フレームワークを開発する。
分析では,(1) リスク中心の物語は明示的なコミットメントと整合することが多いが,定量的目標がトーンから切り離されていること,(2) 大規模でハイエミッションな企業は,定量的目標と矛盾しないものの,より多くのコミットメントや行動を明らかにすること,(3) 開示スタイルにおける広範な類似性は,模倣行動を示し,識別と決定の有用性を低下させる。
- 参考スコア(独自算出の注目度): 25.652674188095883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Climate change has increased demands for transparent and comparable corporate climate disclosures, yet imitation and symbolic reporting often undermine their value. This paper develops a multidimensional framework to assess disclosure maturity among 828 U.S.listed firms using large language models (LLMs) fine-tuned for climate communication. Four classifiers-sentiment, commitment, specificity, and target ambition-extract narrative indicators from sustainability and annual reports, which are linked to firm attributes such as emissions, market capitalization, and sector. Analyses reveal three insights: (1) risk-focused narratives often align with explicit commitments, but quantitative targets (e.g., net-zero pledges) remain decoupled from tone; (2) larger and higher-emitting firms disclose more commitments and actions than peers, though inconsistently with quantitative targets; and (3) widespread similarity in disclosure styles suggests mimetic behavior, reducing differentiation and decision usefulness. These results highlight the value of LLMs for ESG narrative analysis and the need for stronger regulation to connect commitments with verifiable transition strategies.
- Abstract(参考訳): 気候変動は透明で同等の企業気候の開示に対する需要を増大させているが、模倣や象徴的な報告は、しばしばその価値を損なう。
本稿では,大規模言語モデル (LLMs) を用いた気候情報通信のための多次元フレームワークを開発し,米国上場企業828社間の情報開示の成熟度を評価する。
持続可能性や年次報告から、排出、市場資本化、セクターといった堅固な属性に関連する4つの分類要因、コミットメント、具体性、目標とする野心的物語指標を抽出する。
分析では,(1)リスク中心の物語はしばしば明示的なコミットメントと一致しているが,定量的目標(例えば,ネットゼロの誓約)はトーンから切り離されたままであり,(2)大規模でハイエミッションな企業は,定量的目標と矛盾しながらも,より多くのコミットメントや行動を明らかにしている。
これらの結果は、ESGナラティブ分析におけるLLMの価値と、検証可能な移行戦略とコミットメントを結びつけるためのより強力な規制の必要性を強調している。
関連論文リスト
- Syntactic Framing Fragility: An Audit of Robustness in LLM Ethical Decisions [1.0671844383558033]
大規模言語モデル(LLM)は、逐次的な意思決定設定に徐々にデプロイされている。
LLMが論理的に等価だが構文的に異なるプロンプトに対して一貫した倫理的判断を維持できるかどうかを考察する。
SFF(Syntactic Framing Fragility)は、純粋に構文効果を分離するロバストネス評価フレームワークである。
論文 参考訳(メタデータ) (2025-12-27T18:09:34Z) - MMPersuade: A Dataset and Evaluation Framework for Multimodal Persuasion [73.99171322670772]
LVLM(Large Vision-Language Models)は、ショッピング、健康、ニュースなどの分野に展開されている。
MMPersuadeはLVLMにおけるマルチモーダルパーサージョンダイナミクスを体系的に研究するための統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-10-26T17:39:21Z) - Evaluating the Sensitivity of LLMs to Prior Context [2.377922603550519]
大規模言語モデル(LLM)は、多ターン対話やその他の持続的な対話シナリオにますます多くデプロイされている。
我々は,文脈変化に対する感度を測定するために,先行文脈のボリュームと性質を変化させる新しいベンチマークのセットを導入する。
その結果,複数質問に対するLLM性能は,多ターンインタラクションにおいて劇的に低下することがわかった。
論文 参考訳(メタデータ) (2025-05-29T16:09:32Z) - Towards Robust ESG Analysis Against Greenwashing Risks: Aspect-Action Analysis with Cross-Category Generalization [27.060978828050352]
A3CGは、グリーン洗浄の流行の中でESG分析の堅牢性を改善するための新しいデータセットである。
A3CGは、サステナビリティの側面と関連するアクションを明示的に関連付けることにより、サステナビリティのクレームをよりきめ細かな透明な評価を促進する。
これにより、企業がレポートを変更して一定のサステナビリティ領域を選択的に好む場合であっても、アスペクトアクション分析における堅牢なモデルパフォーマンスが保証される。
論文 参考訳(メタデータ) (2025-02-20T03:01:08Z) - Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - MARS: Benchmarking the Metaphysical Reasoning Abilities of Language Models with a Multi-task Evaluation Dataset [50.36095192314595]
大きな言語モデル(LLM)は、一般化可能な推論能力を持つ意識的なエージェントとして機能する。
この能力は、イベントにおける無限の可能な変更をモデル化する複雑さのために、まだ探索されていない。
我々は,各ステップに対応する3つのタスクからなる最初のベンチマークMARSを紹介する。
論文 参考訳(メタデータ) (2024-06-04T08:35:04Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Glitter or Gold? Deriving Structured Insights from Sustainability
Reports via Large Language Models [16.231171704561714]
本研究では,企業のサステナビリティレポートからESGに関する構造化された洞察を抽出するために,情報抽出(IE)手法を用いる。
次に、グラフに基づく表現を活用して、抽出された洞察に関する統計的分析を行う。
論文 参考訳(メタデータ) (2023-10-09T11:34:41Z) - Semantic Consistency for Assuring Reliability of Large Language Models [9.040736633675136]
大規模言語モデル(LLM)は、様々な自然言語タスクに対して顕著な流布と能力を示す。
セマンティック一貫性の一般的な尺度を導入し、様々なLLMの性能を評価するために、この指標の複数バージョンを定式化する。
本稿では,Ask-to-Choose (A2C) と呼ばれる新しいプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2023-08-17T18:11:33Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。