論文の概要: So What's the Plan? Mining Strategic Planning Documents
- arxiv url: http://arxiv.org/abs/2007.00257v2
- Date: Tue, 7 Jul 2020 16:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:01:09.076867
- Title: So What's the Plan? Mining Strategic Planning Documents
- Title(参考訳): それで計画は?
戦略計画文書の採掘
- Authors: Ekaterina Artemova, Tatiana Batura, Anna Golenkovskaya, Vitaly Ivanin,
Vladimir Ivanov, Veronika Sarkisyan, Ivan Smurov, Elena Tutubalina
- Abstract要約: 我々はロシア戦略計画文書RuREBusのコーパスを提示する。
このプロジェクトは言語技術とe政府の観点からいる。
新たな言語ソースとツールが開発され、e-goverment研究にも応用されている。
- 参考スコア(独自算出の注目度): 7.28111609879898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a corpus of Russian strategic planning documents,
RuREBus. This project is grounded both from language technology and
e-government perspectives. Not only new language sources and tools are being
developed, but also their applications to e-goverment research. We demonstrate
the pipeline for creating a text corpus from scratch. First, the annotation
schema is designed. Next texts are marked up using human-in-the-loop strategy,
so that preliminary annotations are derived from a machine learning model and
are manually corrected. The amount of annotated texts is large enough to
showcase what insights can be gained from RuREBus.
- Abstract(参考訳): 本稿では,ロシア戦略計画文書のコーパスであるrurebusについて述べる。
このプロジェクトは言語技術とe政府の観点からいる。
新しい言語ソースやツールが開発されているだけでなく、e-goverment研究に応用されている。
テキストコーパスをスクラッチから作成するためのパイプラインを実演する。
まず、アノテーションスキーマが設計されます。
次のテキストはHuman-in-the-loop戦略を使ってマークアップされるので、事前アノテーションは機械学習モデルから派生し、手動で修正される。
注釈付きテキストの量は、RuREBusから得られる洞察を示すのに十分な量である。
関連論文リスト
- Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - TL;DR Progress: Multi-faceted Literature Exploration in Text
Summarization [37.88261925867143]
本稿では,ニューラルテキスト要約に関する文献を探索する新たなツールであるTL;DR Progressについて述べる。
テキスト要約アプローチのための包括的なアノテーションスキームに基づいて、514の論文を整理する。
論文 参考訳(メタデータ) (2024-02-10T09:16:56Z) - EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation [114.50719922069261]
長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-12T10:21:37Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Patton: Language Model Pretraining on Text-Rich Networks [33.914163727649466]
我々はテキストリッチネットワークのためのTexT-Rich NetwOrkフレームワークPattonのPretrAiningを提案する。
Pattonには2つの事前トレーニング戦略が含まれている。
学術分野と電子商取引分野の5つのデータセットで、下流4つのタスクを実験する。
論文 参考訳(メタデータ) (2023-05-20T19:17:10Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - Some Strategies to Capture Karaka-Yogyata with Special Reference to
apadana [3.949007406869799]
これらの理論に基づいていくつかの洞察を得て、Yogyat=a of wordsをキャプチャするツールを作成しました。
私たちのツールには、"オントロジータグセット"の作成と、レキシコンをマークアップする戦略が含まれています。
論文 参考訳(メタデータ) (2022-01-05T16:50:13Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - RuREBus: a Case Study of Joint Named Entity Recognition and Relation
Extraction from e-Government Domain [7.6462329126769815]
本稿では、国家機関が発行する文書からなる新しいコーパスに対して、名前付きエンティティ認識(NER)や関係抽出(RE)などの情報抽出手法の適用例を示す。
このコーパスの主な課題は、1) アノテーションスキームが一般的なドメインコーパスで使用されるものとは大きく異なり、2) 文書は英語以外の言語で記述されている。
論文 参考訳(メタデータ) (2020-10-29T20:56:15Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。