論文の概要: DeepGreen: Effective LLM-Driven Green-washing Monitoring System Designed for Empirical Testing -- Evidence from China
- arxiv url: http://arxiv.org/abs/2504.07733v1
- Date: Thu, 10 Apr 2025 13:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 17:33:06.902056
- Title: DeepGreen: Effective LLM-Driven Green-washing Monitoring System Designed for Empirical Testing -- Evidence from China
- Title(参考訳): DeepGreen: 実証テスト用に設計された効果的なLCM駆動グリーン洗浄モニタリングシステム -- 中国からの証拠
- Authors: Congluo Xu, Yu Miao, Yiling Xiao, Chengmengjia Lin,
- Abstract要約: DeepGreenはファイナンシャルステートメントの潜在的なグリーンキーワードを事前に識別し、実装の度合いを評価する。
我々は、Aシェア市場から3年間に68社のうち204社を抽出し、89,893語をDeepGreenを通じて分析した。
我々は,ヴァイオリンプロットとK平均クラスタリングに支えられ,Huazheng ESG評価に対する知見を明らかにし,その妥当性を検証した。
- 参考スコア(独自算出の注目度): 0.9999629695552195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes DeepGreen, an Large Language Model Driven (LLM-Driven) system for detecting corporate green-washing behaviour. Utilizing dual-layer LLM analysis, DeepGreen preliminarily identifies potential green keywords in financial statements and then assesses their implementation degree via iterative semantic analysis of LLM. A core variable GreenImplement is derived from the ratio from the two layers' output. We extract 204 financial statements of 68 companies from A-share market over three years, comprising 89,893 words, and analyse them through DeepGreen. Our analysis, supported by violin plots and K-means clustering, reveals insights and validates the variable against the Huazheng ESG rating. It offers a novel perspective for regulatory agencies and investors, serving as a proactive monitoring tool that complements traditional methods.Empirical tests show that green implementation can significantly boost the asset return rate of companies, but there is heterogeneity in scale. Small and medium-sized companies have limited contribution to asset return via green implementation, so there is a stronger motivation for green-washing.
- Abstract(参考訳): 本稿では,大規模言語モデル駆動型(LLM駆動)システムであるDeepGreenを提案する。
ファイナンシャルステートメントにおける潜在的なグリーンキーワードを事前に識別し,その実装度をLLMの反復的意味分析により評価する。
コア変数 GreenImplement は、2つのレイヤの出力の比率から導出される。
我々は、Aシェア市場から3年間に68社のうち204社を抽出し、89,893語をDeepGreenを通じて分析した。
我々は,ヴァイオリンプロットとK平均クラスタリングに支えられ,Huazheng ESG評価に対する知見を明らかにし,その妥当性を検証した。
従来の手法を補完する積極的監視ツールとして、規制機関や投資家に新たな視点を提供し、実証実験により、グリーン実装は企業の資産返却率を大幅に向上させるが、規模には異質性があることが示されている。
中小企業は、グリーン実装による資産返済に限定的な貢献をしているため、グリーン洗浄の動機が強くなっている。
関連論文リスト
- The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Judging It, Washing It: Scoring and Greenwashing Corporate Climate Disclosures using Large Language Models [2.7898966850590625]
本研究では, LLM-as-a-Judge(LLMJ)手法を用いて, 排出削減目標および進捗状況の企業からの報告を評価する。
精度と長さの制約を考慮した応答をグリーンウォッシュするよう促されたLLMの挙動を探索する。
2つのLCMJスコアリングシステム(数値評価とペア比較)がハイパフォーマンスな企業と他社を区別するのに有効であることがわかった。
論文 参考訳(メタデータ) (2025-02-20T23:23:45Z) - Towards Robust ESG Analysis Against Greenwashing Risks: Aspect-Action Analysis with Cross-Category Generalization [27.060978828050352]
A3CGは、グリーン洗浄の流行の中でESG分析の堅牢性を改善するための新しいデータセットである。
A3CGは、サステナビリティの側面と関連するアクションを明示的に関連付けることにより、サステナビリティのクレームをよりきめ細かな透明な評価を促進する。
これにより、企業がレポートを変更して一定のサステナビリティ領域を選択的に好む場合であっても、アスペクトアクション分析における堅牢なモデルパフォーマンスが保証される。
論文 参考訳(メタデータ) (2025-02-20T03:01:08Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - Do Developers Adopt Green Architectural Tactics for ML-Enabled Systems? A Mining Software Repository Study [10.997873336451498]
グリーンAIは、精度を維持しながら計算要求を減らすことを提唱している。
本稿は、GitHub上の168のオープンソースMLプロジェクトを研究することで、このギャップに対処する。
新たな大規模言語モデル(LLM)ベースのマイニング機構を使用して、グリーン戦略を特定し分析する。
論文 参考訳(メタデータ) (2024-10-09T09:27:07Z) - Caution for the Environment: Multimodal Agents are Susceptible to Environmental Distractions [68.92637077909693]
本稿では,グラフィカルユーザインタフェース(GUI)環境におけるマルチモーダル大規模言語モデル(MLLM)エージェントの忠実さについて検討する。
ユーザとエージェントの両方が良性であり、環境は悪質ではないが、無関係なコンテンツを含む、一般的な設定が提案されている。
実験結果から、ジェネラリストエージェントや専門的なGUIエージェントなど、最も強力なモデルでさえ、気晴らしの影響を受けやすいことが明らかとなった。
論文 参考訳(メタデータ) (2024-08-05T15:16:22Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - GSVA: Generalized Segmentation via Multimodal Large Language Models [72.57095903188922]
Generalized Referring Expression (GRES)は、従来のRESの範囲を拡張して、1つの式で複数のオブジェクトを参照したり、画像に存在しない空のターゲットを特定する。
セグメンテーションMLLMは、ユーザが特定のプロンプトで複数の主題を参照するケースを正しく扱えないため、現在のGRESの解決策は満足できないままである。
本稿では,このギャップに対処する汎用ビジョンアシスタント(GSVA)を提案する。
論文 参考訳(メタデータ) (2023-12-15T02:54:31Z) - Leveraging Language Models to Detect Greenwashing [39.58317527488534]
本稿では,グリーンウォッシングリスクを考慮に入れたラベルに基づいて,言語モデルを学習するための新たな予備的手法を提案する。
我々の最良のモデルは平均精度スコア86.34%、F1スコア0.67を達成し、概念実証手法が探索の有望な方向を示すことを示した。
論文 参考訳(メタデータ) (2023-10-30T21:41:49Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Position: Tensor Networks are a Valuable Asset for Green AI [7.066223472133622]
本稿では,テンソルネットワーク(TN)とグリーンAIの基本的な関係を紹介する。
我々は、TNは強力な数学的バックボーンと固有対数圧縮ポテンシャルのため、グリーンAIにとって価値があると論じる。
論文 参考訳(メタデータ) (2022-05-25T14:02:49Z) - Towards Green Automated Machine Learning: Status Quo and Future
Directions [71.86820260846369]
AutoMLは高いリソース消費で批判されている。
本稿では,AutoMLプロセス全体を環境に優しいものにするためのパラダイムであるGreen AutoMLを提案する。
論文 参考訳(メタデータ) (2021-11-10T18:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。