論文の概要: ClimateBERT-NetZero: Detecting and Assessing Net Zero and Reduction
Targets
- arxiv url: http://arxiv.org/abs/2310.08096v1
- Date: Thu, 12 Oct 2023 07:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 12:31:58.818646
- Title: ClimateBERT-NetZero: Detecting and Assessing Net Zero and Reduction
Targets
- Title(参考訳): ClimateBERT-NetZero:ネットゼロの検出と評価と削減ターゲット
- Authors: Tobias Schimanski, Julia Bingler, Camilla Hyslop, Mathias Kraus,
Markus Leippold
- Abstract要約: 我々は、企業、国家、地域のネットゼロと削減目標を自動的に検出する新しいツールを作成します。
自然言語分類器であるClimateBERT-NetZeroをトレーニングしてリリースし、テキストがネットゼロか縮小ターゲットかを検出する。
本実験では, ネットゼロと排出削減目標を大規模に抽出し, 解析するための有望な経路を実証した。
- 参考スコア(独自算出の注目度): 5.58558861005532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public and private actors struggle to assess the vast amounts of information
about sustainability commitments made by various institutions. To address this
problem, we create a novel tool for automatically detecting corporate,
national, and regional net zero and reduction targets in three steps. First, we
introduce an expert-annotated data set with 3.5K text samples. Second, we train
and release ClimateBERT-NetZero, a natural language classifier to detect
whether a text contains a net zero or reduction target. Third, we showcase its
analysis potential with two use cases: We first demonstrate how
ClimateBERT-NetZero can be combined with conventional question-answering (Q&A)
models to analyze the ambitions displayed in net zero and reduction targets.
Furthermore, we employ the ClimateBERT-NetZero model on quarterly earning call
transcripts and outline how communication patterns evolve over time. Our
experiments demonstrate promising pathways for extracting and analyzing net
zero and emission reduction targets at scale.
- Abstract(参考訳): 公的および民間の俳優は、様々な機関による持続可能性のコミットメントに関する膨大な情報を評価するのに苦労している。
この問題に対処するため,企業,国,地域のネットゼロと減量目標を自動的に3段階で検出する新しいツールを開発した。
まず、3.5kのテキストサンプルを持つエキスパートアノテートデータセットを紹介する。
第2に、テキストがネットゼロか縮小ターゲットを含むかを検出する自然言語分類器ClimateBERT-NetZeroを訓練・リリースする。
第3に、分析の可能性を2つのユースケースで示す: まず、ClimateBERT-NetZeroが従来のQ&Aモデルとどのように組み合わせて、ネットゼロで表示された野心と縮小目標を分析できるかを実証する。
さらに,CurrentBERT-NetZeroモデルを用いて,四半期毎の通話書き起こしを行い,通信パターンの経時的変化について概説する。
本実験は,ネットゼロおよび排出削減目標を大規模に抽出・分析するための有望な経路を示す。
関連論文リスト
- RDR: the Recap, Deliberate, and Respond Method for Enhanced Language
Understanding [6.738409533239947]
Recap、Deliberate、Respond(RDR)パラダイムは、ニューラルネットワークパイプラインに3つの異なる目的を組み込むことで、この問題に対処する。
これら3つのモデルをカスケードすることにより、ベンチマークをゲームする可能性を軽減し、基盤となるセマンティックパターンをキャプチャする堅牢な方法を確立する。
その結果,標準基準値の最大2%向上とともに,競争基準値と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-12-15T16:41:48Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - ZeroSCROLLS: A Zero-Shot Benchmark for Long Text Understanding [86.08738156304224]
我々は、長いテキスト上での自然言語理解のためのゼロショットベンチマークであるZeroSCROLLSを紹介する。
SCROLLSベンチマークから6つのタスクを適応させ、新しい2つの情報拡散タスクを含む4つのデータセットを追加します。
クロードはChatGPTより優れており、GPT-4は最高スコアを得る。
論文 参考訳(メタデータ) (2023-05-23T16:15:31Z) - Self-Learning for Zero Shot Neural Machine Translation [13.551731309506874]
本研究は、並列データを共有するピボット言語を仮定せずに学習するゼロショットNMTモデリング手法を提案する。
教師なしNMTと比較して、ドメインミスマッチ設定でも一貫した改善が観察される。
論文 参考訳(メタデータ) (2021-03-10T09:15:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - The GEM Benchmark: Natural Language Generation, its Evaluation and
Metrics [66.96150429230035]
我々は、自然言語生成(NLG)のための生きたベンチマークであるGEM、その評価、およびメトリクスを紹介する。
ベンチマークの定期的なアップデートにより、NLGの研究はより多言語化され、モデルとともに課題を進化させる。
論文 参考訳(メタデータ) (2021-02-02T18:42:05Z) - Recalibration of Neural Networks for Point Cloud Analysis [3.7814216736076434]
3Dポイントクラウドのためのディープニューラルネットワーク上での再校正モジュールを導入する。
提案モジュールを3次元ポイントクラウド解析のための3つの最先端ネットワークに組み込むことで,提案モジュールのメリットと汎用性を実証する。
第2の実験では,アルツハイマー病の診断における再校正ブロックの利点について検討した。
論文 参考訳(メタデータ) (2020-11-25T17:14:34Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z) - ZeroQ: A Novel Zero Shot Quantization Framework [83.63606876854168]
量子化は、ニューラルネットワークの推論時間とメモリフットプリントを削減するための有望なアプローチである。
既存のゼロショット量子化法では、異なるエポックを用いてこの問題に対処するが、性能は低下する。
本稿では,この問題に対処する新しいゼロショット量子化フレームワークであるZeroQを提案する。
論文 参考訳(メタデータ) (2020-01-01T23:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。