論文の概要: A Cascade Model for Argument Mining in Japanese Political Discussions:
the QA Lab-PoliInfo-3 Case Study
- arxiv url: http://arxiv.org/abs/2207.01672v1
- Date: Mon, 4 Jul 2022 18:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 14:23:53.911269
- Title: A Cascade Model for Argument Mining in Japanese Political Discussions:
the QA Lab-PoliInfo-3 Case Study
- Title(参考訳): 日本の政治討論における論証マイニングのカスケードモデル:QA Lab-PoliInfo-3 事例研究
- Authors: Ramon Ruiz-Dolz
- Abstract要約: rVRAINチームは、分類と情報検索のサブタスクを組み合わせたBAM(Budget Argument Mining)タスクに取り組みました。
議論分類(AC)では、チームは5クラスのBERTベースのカスケードモデルでいくつかの手作りのルールを補完し、最高の結果を得た。
情報検索 (リレーショナルID検出, RID) では, BERTに基づくバイナリ分類器と, 金銭的表現と予算的な密埋め込みからなるペアのコサイン類似性を組み合わせることで, 最良の結果が得られた。
- 参考スコア(独自算出の注目度): 5.482532589225552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rVRAIN team tackled the Budget Argument Mining (BAM) task, consisting of
a combination of classification and information retrieval sub-tasks. For the
argument classification (AC), the team achieved its best performing results
with a five-class BERT-based cascade model complemented with some handcrafted
rules. The rules were used to determine if the expression was monetary or not.
Then, each monetary expression was classified as a premise or as a conclusion
in the first level of the cascade model. Finally, each premise was classified
into the three premise classes, and each conclusion into the two conclusion
classes. For the information retrieval (i.e., relation ID detection or RID),
our best results were achieved by a combination of a BERT-based binary
classifier, and the cosine similarity of pairs consisting of the monetary
expression and budget dense embeddings.
- Abstract(参考訳): rVRAINチームは、分類と情報検索のサブタスクを組み合わせたBAM(Budget Argument Mining)タスクに取り組みました。
議論分類(AC)では、チームは5クラスのBERTベースのカスケードモデルでいくつかの手作りのルールを補完し、最高の結果を得た。
規則は、その表現が金銭的かどうかを決定するために用いられた。
そして、各通貨表現は、カスケードモデルの第一段階における前提または結論として分類された。
最後に、各前提を3つの前提クラスに分類し、各結論を2つの結論クラスに分類した。
情報検索 (リレーショナルID検出, RID) では, BERTに基づくバイナリ分類器と, 金銭的表現と予算的な密埋め込みからなるペアのコサイン類似性を組み合わせることで, 最良の結果が得られた。
関連論文リスト
- A robust three-way classifier with shadowed granular-balls based on justifiable granularity [53.39844791923145]
我々は、不確実なデータのために、影付きGBの頑健な3方向分類器を構築した。
本モデルでは,不確実なデータ管理を実証し,分類リスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-07-03T08:54:45Z) - Answering Unseen Questions With Smaller Language Models Using Rationale
Generation and Dense Retrieval [9.136948771060895]
この設定でさらに改善する2つの方法を評価する。
どちらも、より大きな言語モデルによって生成された合理性と、マルチホップ密度検索システムから生成された長いコンテキストを組み合わせることに焦点を当てている。
我々の最高の推論モデルは、見当たらない評価データセットに対して、強い比較前のベースラインを大幅に改善します。
論文 参考訳(メタデータ) (2023-08-09T05:06:39Z) - Prompt Algebra for Task Composition [131.97623832435812]
素早いチューニングを伴うビジュアル言語モデルを基本分類器として検討する。
合成分類器の性能向上のための制約付きプロンプトチューニングを提案する。
UTZapposでは、最高のベースモデルに対する分類精度を平均8.45%向上させる。
論文 参考訳(メタデータ) (2023-06-01T03:20:54Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - UIUC_BioNLP at SemEval-2021 Task 11: A Cascade of Neural Models for
Structuring Scholarly NLP Contributions [1.5942130010323128]
本稿では,文分類,文認識,三重抽出を行うニューラルネットワークのカスケードを提案する。
BERT-CRFモデルを用いて、コントリビューション文中の関連するフレーズを認識し、特徴付ける。
本システムは第1相評価では第2位,第2相評価では両部で第1位であった。
論文 参考訳(メタデータ) (2021-05-12T05:24:35Z) - Classifier Combination Approach for Question Classification for Bengali
Question Answering System [17.567099458403707]
本研究は, ベンガルの質問分類課題において, 既存の個人モデルよりも, 複数モデルの組み合わせにより, より良い分類性能が得られることを示した。
我々は、QCの精度を高めるために、最先端のマルチモデル組み合わせ技術、すなわちアンサンブル、積み重ね、投票を利用した。
ここで提示されるアプローチは、他のインド・アーリア語やインド語で質問応答システムを開発するために使用することができる。
論文 参考訳(メタデータ) (2020-08-31T13:39:04Z) - Detecting and Classifying Malevolent Dialogue Responses: Taxonomy, Data
and Methodology [68.8836704199096]
コーパスベースの会話インタフェースは、テンプレートベースのエージェントや検索ベースのエージェントよりも多様な自然なレスポンスを生成することができる。
コーパスベースの会話エージェントの生成能力が増大すると、マレヴォレントな反応を分類し、フィルタリングする必要性が生じる。
不適切な内容の認識と分類に関するこれまでの研究は、主にある種のマレヴォレンスに焦点を絞っている。
論文 参考訳(メタデータ) (2020-08-21T22:43:27Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。