論文の概要: CHATREPORT: Democratizing Sustainability Disclosure Analysis through
LLM-based Tools
- arxiv url: http://arxiv.org/abs/2307.15770v2
- Date: Wed, 11 Oct 2023 16:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 05:23:45.757656
- Title: CHATREPORT: Democratizing Sustainability Disclosure Analysis through
LLM-based Tools
- Title(参考訳): CHATREPORT: LLMツールによるサステナビリティ開示分析の民主化
- Authors: Jingwei Ni, Julia Bingler, Chiara Colesanti-Senni, Mathias Kraus, Glen
Gostlow, Tobias Schimanski, Dominik Stammbach, Saeid Ashraf Vaghefi, Qian
Wang, Nicolas Webersinke, Tobias Wekhof, Tingyu Yu, Markus Leippold
- Abstract要約: ChatReportは、企業サステナビリティレポートの分析を自動化するLLMベースの新しいシステムである。
提案手法,注釈付きデータセット,および1015件のレポートを公開して分析する。
- 参考スコア(独自算出の注目度): 10.653984116770234
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the face of climate change, are companies really taking substantial steps
toward more sustainable operations? A comprehensive answer lies in the dense,
information-rich landscape of corporate sustainability reports. However, the
sheer volume and complexity of these reports make human analysis very costly.
Therefore, only a few entities worldwide have the resources to analyze these
reports at scale, which leads to a lack of transparency in sustainability
reporting. Empowering stakeholders with LLM-based automatic analysis tools can
be a promising way to democratize sustainability report analysis. However,
developing such tools is challenging due to (1) the hallucination of LLMs and
(2) the inefficiency of bringing domain experts into the AI development loop.
In this paper, we ChatReport, a novel LLM-based system to automate the analysis
of corporate sustainability reports, addressing existing challenges by (1)
making the answers traceable to reduce the harm of hallucination and (2)
actively involving domain experts in the development loop. We make our
methodology, annotated datasets, and generated analyses of 1015 reports
publicly available.
- Abstract(参考訳): 気候変動に直面した企業は、より持続可能な運用に向けて大きな一歩を踏み出しているのだろうか?
包括的な答えは、企業サステナビリティレポートの密集した情報豊富な状況にある。
しかし、これらの報告の量と複雑さにより、人間の分析は非常にコストがかかる。
したがって、これらのレポートを大規模に分析するリソースを持つ組織は世界中でわずかであり、持続可能性レポートの透明性の欠如につながっている。
LLMベースの自動分析ツールによる利害関係者の強化は、サステナビリティレポート分析を民主化する上で有望な方法である。
しかし,1)LLMの幻覚化,2)AI開発ループにドメインエキスパートを巻き込む非効率性のため,そのようなツールの開発は困難である。
本稿では,企業サステナビリティレポートの分析を自動化する新しいllmベースのシステムであるchatreportについて,(1)幻覚の害を軽減し,(2)開発ループにドメイン専門家を積極的に関与させることで,既存の課題を解決する。
提案手法,注釈付きデータセット,および1015件のレポートを公開して分析する。
関連論文リスト
- FinRobot: AI Agent for Equity Research and Valuation with Large Language Models [6.2474959166074955]
本稿では、エクイティリサーチに特化したAIエージェントフレームワークであるFinRobotについて述べる。
FinRobotはマルチエージェント・チェーン・オブ・シント(CoT)システムを採用し、定量分析と定性的分析を統合し、人間のアナリストの包括的な推論をエミュレートする。
CapitalCubeやWright Reportsのような既存の自動研究ツールとは異なり、FinRobotは大手ブローカー会社や基礎研究ベンダーと同等の洞察を提供する。
論文 参考訳(メタデータ) (2024-11-13T17:38:07Z) - Explainable Natural Language Processing for Corporate Sustainability Analysis [26.267508407180465]
コーポレート・サステナビリティの概念は、コーポレート・オペレーションの多様で複雑な性質のために複雑である。
企業サステナビリティ評価は、企業サステナビリティの取り組みを反映したデータと、それらを評価するアナリストの両方で主観性に悩まされている。
我々は、説明可能な自然言語処理(XNLP)は企業サステナビリティ分析を大幅に向上させることができると主張している。
論文 参考訳(メタデータ) (2024-07-03T08:27:51Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Bangladesh Agricultural Knowledge Graph: Enabling Semantic Integration and Data-driven Analysis--Full Version [0.0]
我々はバングラデシュの農業データを統合する連合知識グラフを開発した。
BDAKGは多次元意味論を取り入れ、外部知識グラフとリンクし、OLAPと互換性があり、FAIRの原則に準拠している。
論文 参考訳(メタデータ) (2024-03-18T16:19:30Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [76.95062553043607]
大きな言語モデル(LLM)を評価することは、その能力を理解し、実践的なアプリケーションへの統合を促進するために不可欠である。
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Paradigm Shift in Sustainability Disclosure Analysis: Empowering
Stakeholders with CHATREPORT, a Language Model-Based Tool [10.653984116770234]
本稿では,企業サステナビリティレポートの分析を自動化するために,専門知識を持つ大規模言語モデル(LLM)を強化する新たなアプローチを提案する。
当社はCHATREPORTを認定し、企業における気候変動リスクの開示を評価するための第1のユースケースに適用する。
論文 参考訳(メタデータ) (2023-06-27T14:46:47Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。