論文の概要: Team Hitachi @ AutoMin 2021: Reference-free Automatic Minuting Pipeline
with Argument Structure Construction over Topic-based Summarization
- arxiv url: http://arxiv.org/abs/2112.02741v1
- Date: Mon, 6 Dec 2021 02:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 13:50:25.593062
- Title: Team Hitachi @ AutoMin 2021: Reference-free Automatic Minuting Pipeline
with Argument Structure Construction over Topic-based Summarization
- Title(参考訳): team hitachi @ automin 2021: トピックベースの要約による引数構造構築による参照フリーな自動minutingパイプライン
- Authors: Atsuki Yamaguchi, Gaku Morio, Hiroaki Ozaki, Ken-ichi Yokote and Kenji
Nagamatsu
- Abstract要約: 本稿では,第1共有タスク自動マイニング(AutoMin-2021)のための日立チームの自動マイニングシステムを提案する。
本稿では,参照不要な手法(トレーニング分を使わずに)を自動マイニング(Task A)に応用し,まずトピックに基づいてテキストをブロックに分割する。
生成した分に議論マイニングの手法を適用し、よく構造化された一貫性のある方法でそれらを再構成する。
- 参考スコア(独自算出の注目度): 16.467390182635352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the proposed automatic minuting system of the Hitachi
team for the First Shared Task on Automatic Minuting (AutoMin-2021). We utilize
a reference-free approach (i.e., without using training minutes) for automatic
minuting (Task A), which first splits a transcript into blocks on the basis of
topics and subsequently summarizes those blocks with a pre-trained BART model
fine-tuned on a summarization corpus of chat dialogue. In addition, we apply a
technique of argument mining to the generated minutes, reorganizing them in a
well-structured and coherent way. We utilize multiple relevance scores to
determine whether or not a minute is derived from the same meeting when either
a transcript or another minute is given (Task B and C). On top of those scores,
we train a conventional machine learning model to bind them and to make final
decisions. Consequently, our approach for Task A achieve the best adequacy
score among all submissions and close performance to the best system in terms
of grammatical correctness and fluency. For Task B and C, the proposed model
successfully outperformed a majority vote baseline.
- Abstract(参考訳): 本稿では,第1共有タスク自動マイニング(AutoMin-2021)のための日立チームの自動マイニングシステムを提案する。
会話の要約コーパスに微調整された事前学習されたbartモデルを用いて,まず書き起こしをトピックに基づいてブロックに分割し,その後にそれらのブロックを要約するタスクa(タスクa)に対して,参照フリーアプローチ(トレーニング分を使わずに)を用いる。
さらに,生成した分量に対して引数マイニングの手法を適用し,構造的かつコヒーレントな方法で再編成する。
我々は、複数の関連スコアを用いて、1分が同じミーティングから、書き起こしまたは別の分が与えられたときに得られるかどうかを判定する(タスクB、C)。
これらのスコアに加えて、従来の機械学習モデルをトレーニングしてそれらを結合し、最終的な決定をします。
その結果,タスクAに対するアプローチは,全ての提案の中から最高の精度のスコアを獲得し,文法的正確性や流布度の観点から,最高のシステムに密接な性能を達成できた。
タスクBとCでは、提案されたモデルは多数決ベースラインを上回った。
関連論文リスト
- Synthesizing Conversations from Unlabeled Documents using Automatic Response Segmentation [13.322409682814827]
我々は,会話型質問応答システムにおける不適切でコストのかかるデータトレーニングの課題に対処する。
本稿では,ロバストなダイアログ合成手法を提案する。
文境界におけるセグメンテーションを使わずに,ダイアログタスクのためのデータのセグメンテーションを学習する。
論文 参考訳(メタデータ) (2024-06-06T02:52:45Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Task-Optimized Adapters for an End-to-End Task-Oriented Dialogue System [0.0]
本稿では,タスク毎に個別に学習し,事前学習したネットワークの固定層に少数のパラメータを追加するタスク・ド・アダプタを用いたエンドツーエンドTODシステムを提案する。
提案手法はモデルに依存しない手法であり,プロンプトを使わずに入力データのみをプロンプトチューニングする必要がない。
論文 参考訳(メタデータ) (2023-05-04T00:17:49Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - OPAL: Ontology-Aware Pretrained Language Model for End-to-End
Task-Oriented Dialogue [40.62090743056549]
本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは少なくとも2つのタスク固有モジュールを満たす:対話状態トラッカー(DST)と応答生成器(RG)。
論文 参考訳(メタデータ) (2022-09-10T04:38:27Z) - Automated Scoring for Reading Comprehension via In-context BERT Tuning [9.135673900486827]
本稿では,NAEP(National Assessment of Education Progress)自動採点課題に対する(大賞受賞)ソリューションについて報告する。
In-context BERT fine-tuning は、慎重に設計された入力構造を持つ全ての項目に対して単一のスコアリングモデルを生成する。
この課題から得られたトレーニングデータセットを用いて,地域評価によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-19T21:16:15Z) - Video Moment Retrieval via Natural Language Queries [7.611718124254329]
本稿では,映像モーメント検索(VMR)のための新しい手法を提案する。
私たちのモデルはシンプルなアーキテクチャで、維持しながらより高速なトレーニングと推論を可能にします。
論文 参考訳(メタデータ) (2020-09-04T22:06:34Z) - SOLOIST: Building Task Bots at Scale with Transfer Learning and Machine
Teaching [81.45928589522032]
トランスフォーマーに基づく自動回帰言語モデルを用いて,モジュール型タスク指向対話システムをパラメータ化する。
タスクグラウンド応答生成モデルである異種ダイアログコーパスの事前学習を行う。
実験により、SOLOISTは、よく研究されたタスク指向のダイアログベンチマーク上で、新しい最先端のダイアログを生成する。
論文 参考訳(メタデータ) (2020-05-11T17:58:34Z) - A Simple Language Model for Task-Oriented Dialogue [61.84084939472287]
SimpleTODはタスク指向対話に対する単純なアプローチであり、すべてのサブタスクのリキャストで訓練された単一因果言語モデルを単一シーケンス予測問題として利用する。
これによりSimpleTODは、事前訓練されたオープンドメイン、GPT-2のような因果言語モデルからのトランスファー学習を完全に活用できる。
論文 参考訳(メタデータ) (2020-05-02T11:09:27Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。