論文の概要: Contextual Sentence Classification: Detecting Sustainability Initiatives
in Company Reports
- arxiv url: http://arxiv.org/abs/2110.03727v1
- Date: Thu, 7 Oct 2021 18:28:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 13:17:44.521910
- Title: Contextual Sentence Classification: Detecting Sustainability Initiatives
in Company Reports
- Title(参考訳): 文脈文分類:企業レポートにおける持続可能性イニシアティブの検出
- Authors: Dan Hirlea, Christopher Bryant and Marek Rei
- Abstract要約: 企業報告でサステナビリティイニシアチブを検出するための新しい課題を紹介する。
特定の社会問題に取り組むために企業が行った実践的活動の言及を自動的に識別することを目的とする。
- 参考スコア(独自算出の注目度): 17.596501992526473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the novel task of detecting sustainability initiatives in
company reports. Given a full report, the aim is to automatically identify
mentions of practical activities that a company has performed in order to
tackle specific societal issues. As a single initiative can often be described
over multiples sentences, new methods for identifying continuous sentence spans
needs to be developed. We release a new dataset of company reports in which the
text has been manually annotated with sustainability initiatives. We also
evaluate different models for initiative detection, introducing a novel
aggregation and evaluation methodology. Our proposed architecture uses
sequences of five consecutive sentences to account for contextual information
when making classification decisions at the individual sentence level.
- Abstract(参考訳): 我々は,サステナビリティイニシアティブを検出する新しいタスクを企業レポートで紹介する。
完全な報告が与えられると、特定の社会問題に取り組むために会社が行った実践的な活動の言及を自動的に特定することを目的としている。
単一のイニシアチブを複数の文で記述できるため、連続文を識別する新しい方法を開発する必要がある。
我々は,サステナビリティイニシアチブでテキストを手作業で注釈付けした企業レポートのデータセットを公開する。
また,新しいアグリゲーションと評価手法を導入することで,イニシアティブ検出のための異なるモデルを評価する。
提案アーキテクチャは,各文レベルでの分類決定を行う際に,文脈情報を考慮した5つの連続文列を用いる。
関連論文リスト
- PLANTS: A Novel Problem and Dataset for Summarization of Planning-Like (PL) Tasks [6.408228255254908]
我々は,新しい計画要約問題を導入し,データセットを提示し,PL要約を生成するベースライン手法を提供する。
我々は、この新たな問題とデータセットが要約の研究を再活性化できると信じており、これは解決された問題であると考える者もいる。
論文 参考訳(メタデータ) (2024-07-18T15:36:02Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - ViLPAct: A Benchmark for Compositional Generalization on Multimodal
Human Activities [68.93275430102118]
ViLPActは人間の活動計画のためのビジョン言語ベンチマークである。
データセットは、クラウドソーシングを通じて意図を持って拡張されたチャレードから2.9kのビデオで構成されている。
論文 参考訳(メタデータ) (2022-10-11T15:50:51Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - SLUE: New Benchmark Tasks for Spoken Language Understanding Evaluation
on Natural Speech [44.68649535280397]
音声言語理解評価(SLUE)のための一連のベンチマークタスクを提案する。
SLUEは限定的なラベル付きトレーニングセットとそれに対応する評価セットで構成されている。
本稿では,SLUEベンチマークスイートの第1フェーズについて述べる。
本稿では,VoxCelebデータセットとVoxPopuliデータセットのサブセットに対する新たな書き起こしとアノテーション,ベースラインモデルの評価指標と結果,ベースラインを再現し,新しいモデルを評価するためのオープンソースツールキットを提供する。
論文 参考訳(メタデータ) (2021-11-19T18:59:23Z) - YASO: A New Benchmark for Targeted Sentiment Analysis [12.60266470026856]
YASO - クラウドソースによる新たなTSA評価データセット。
データセットには、映画、ビジネス、製品レビューからの2,215の英語文と、7,415の単語とそれらの感情が含まれている。
分析はアノテーションの信頼性を検証し,収集したデータの特徴について検討する。
論文 参考訳(メタデータ) (2020-12-29T00:25:15Z) - Extending Text Informativeness Measures to Passage Interestingness
Evaluation (Language Model vs. Word Embedding) [1.2998637003026272]
本稿では、インフォマティヴネスの概念をインフォマティヴネスの一般化として定義する。
次に、この一般化に対応するために、アートインフォーマティヴネス対策の状態を調査する。
CLEF-INEX Tweet Contextualization 2012 Logarithm similarity measure が最適であることを示す。
論文 参考訳(メタデータ) (2020-04-14T18:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。