論文の概要: Contextual Sentence Classification: Detecting Sustainability Initiatives
in Company Reports
- arxiv url: http://arxiv.org/abs/2110.03727v1
- Date: Thu, 7 Oct 2021 18:28:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 13:17:44.521910
- Title: Contextual Sentence Classification: Detecting Sustainability Initiatives
in Company Reports
- Title(参考訳): 文脈文分類:企業レポートにおける持続可能性イニシアティブの検出
- Authors: Dan Hirlea, Christopher Bryant and Marek Rei
- Abstract要約: 企業報告でサステナビリティイニシアチブを検出するための新しい課題を紹介する。
特定の社会問題に取り組むために企業が行った実践的活動の言及を自動的に識別することを目的とする。
- 参考スコア(独自算出の注目度): 17.596501992526473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the novel task of detecting sustainability initiatives in
company reports. Given a full report, the aim is to automatically identify
mentions of practical activities that a company has performed in order to
tackle specific societal issues. As a single initiative can often be described
over multiples sentences, new methods for identifying continuous sentence spans
needs to be developed. We release a new dataset of company reports in which the
text has been manually annotated with sustainability initiatives. We also
evaluate different models for initiative detection, introducing a novel
aggregation and evaluation methodology. Our proposed architecture uses
sequences of five consecutive sentences to account for contextual information
when making classification decisions at the individual sentence level.
- Abstract(参考訳): 我々は,サステナビリティイニシアティブを検出する新しいタスクを企業レポートで紹介する。
完全な報告が与えられると、特定の社会問題に取り組むために会社が行った実践的な活動の言及を自動的に特定することを目的としている。
単一のイニシアチブを複数の文で記述できるため、連続文を識別する新しい方法を開発する必要がある。
我々は,サステナビリティイニシアチブでテキストを手作業で注釈付けした企業レポートのデータセットを公開する。
また,新しいアグリゲーションと評価手法を導入することで,イニシアティブ検出のための異なるモデルを評価する。
提案アーキテクチャは,各文レベルでの分類決定を行う際に,文脈情報を考慮した5つの連続文列を用いる。
関連論文リスト
- Little Giants: Exploring the Potential of Small LLMs as Evaluation
Metrics in Summarization in the Eval4NLP 2023 Shared Task [53.163534619649866]
本稿では,大規模言語モデルに品質評価の課題を扱えるように,プロンプトベースの手法の有効性を評価することに焦点を当てる。
我々は,標準的なプロンプト,アノテータ命令によって通知されるプロンプト,イノベーティブなチェーン・オブ・シークレットプロンプトなど,様々なプロンプト技術を用いて,系統的な実験を行った。
我々の研究は、これらのアプローチを"小さな"オープンソースモデル(orca_mini_v3_7B)を使って組み合わせることで、競争結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-01T17:44:35Z) - Dynamic-SUPERB: Towards A Dynamic, Collaborative, and Comprehensive
Instruction-Tuning Benchmark for Speech [110.03854819655098]
テキスト言語モデルは、よく整形された命令が与えられたときに、目に見えないタスクに一般化する際、顕著なゼロショット能力を示している。
ゼロショット方式で複数のタスクを実行するための命令チューニングを活用できるユニバーサル音声モデルを構築するためのベンチマークであるDynamic-SUPERBを提案する。
論文 参考訳(メタデータ) (2023-09-18T06:43:30Z) - SummIt: Iterative Text Summarization via ChatGPT [12.966825834765814]
本稿では,ChatGPTのような大規模言語モデルに基づく反復的なテキスト要約フレームワークSummItを提案する。
我々のフレームワークは、自己評価とフィードバックによって生成された要約を反復的に洗練することを可能にする。
また, 繰り返し改良の有効性を検証し, 過補正の潜在的な問題を特定するために, 人間の評価を行う。
論文 参考訳(メタデータ) (2023-05-24T07:40:06Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - ViLPAct: A Benchmark for Compositional Generalization on Multimodal
Human Activities [68.93275430102118]
ViLPActは人間の活動計画のためのビジョン言語ベンチマークである。
データセットは、クラウドソーシングを通じて意図を持って拡張されたチャレードから2.9kのビデオで構成されている。
論文 参考訳(メタデータ) (2022-10-11T15:50:51Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - SLUE: New Benchmark Tasks for Spoken Language Understanding Evaluation
on Natural Speech [44.68649535280397]
音声言語理解評価(SLUE)のための一連のベンチマークタスクを提案する。
SLUEは限定的なラベル付きトレーニングセットとそれに対応する評価セットで構成されている。
本稿では,SLUEベンチマークスイートの第1フェーズについて述べる。
本稿では,VoxCelebデータセットとVoxPopuliデータセットのサブセットに対する新たな書き起こしとアノテーション,ベースラインモデルの評価指標と結果,ベースラインを再現し,新しいモデルを評価するためのオープンソースツールキットを提供する。
論文 参考訳(メタデータ) (2021-11-19T18:59:23Z) - YASO: A New Benchmark for Targeted Sentiment Analysis [12.60266470026856]
YASO - クラウドソースによる新たなTSA評価データセット。
データセットには、映画、ビジネス、製品レビューからの2,215の英語文と、7,415の単語とそれらの感情が含まれている。
分析はアノテーションの信頼性を検証し,収集したデータの特徴について検討する。
論文 参考訳(メタデータ) (2020-12-29T00:25:15Z) - Evaluating Interactive Summarization: an Expansion-Based Framework [97.0077722128397]
対話型要約のためのエンドツーエンド評価フレームワークを開発した。
我々のフレームワークには、実際のユーザセッションの収集手順と、標準に依存する評価方法が含まれています。
当社のソリューションはすべて、ベンチマークとして公開されることを意図しています。
論文 参考訳(メタデータ) (2020-09-17T15:48:13Z) - Extending Text Informativeness Measures to Passage Interestingness
Evaluation (Language Model vs. Word Embedding) [1.2998637003026272]
本稿では、インフォマティヴネスの概念をインフォマティヴネスの一般化として定義する。
次に、この一般化に対応するために、アートインフォーマティヴネス対策の状態を調査する。
CLEF-INEX Tweet Contextualization 2012 Logarithm similarity measure が最適であることを示す。
論文 参考訳(メタデータ) (2020-04-14T18:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。