論文の概要: Aspect-Controlled Neural Argument Generation
- arxiv url: http://arxiv.org/abs/2005.00084v1
- Date: Thu, 30 Apr 2020 20:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:50:31.449943
- Title: Aspect-Controlled Neural Argument Generation
- Title(参考訳): アスペクト制御ニューラル引数生成
- Authors: Benjamin Schiller and Johannes Daxenberger and Iryna Gurevych
- Abstract要約: 我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
- 参考スコア(独自算出の注目度): 65.91772010586605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We rely on arguments in our daily lives to deliver our opinions and base them
on evidence, making them more convincing in turn. However, finding and
formulating arguments can be challenging. In this work, we train a language
model for argument generation that can be controlled on a fine-grained level to
generate sentence-level arguments for a given topic, stance, and aspect. We
define argument aspect detection as a necessary method to allow this
fine-granular control and crowdsource a dataset with 5,032 arguments annotated
with aspects. Our evaluation shows that our generation model is able to
generate high-quality, aspect-specific arguments. Moreover, these arguments can
be used to improve the performance of stance detection models via data
augmentation and to generate counter-arguments. We publish all datasets and
code to fine-tune the language model.
- Abstract(参考訳): 私たちは日々の生活の中で議論を頼りにしており、私たちの意見を伝え、証拠に基づいています。
しかし、議論の発見と定式化は困難である。
本研究では,特定の話題や態度,アスペクトに対して文レベルの引数を生成するために,きめ細かなレベルで制御可能な引数生成のための言語モデルを訓練する。
この粒度制御と5,032個のアスペクトをアノテートしたデータセットをクラウドソースするために必要な手法として引数アスペクト検出を定義する。
評価の結果,高品質なアスペクト特有な議論を生成できることがわかった。
さらに、これらの議論は、データ拡張によるスタンス検出モデルの性能向上と、カウンターアグメンテーションの生成に利用できる。
すべてのデータセットとコードを公開して、言語モデルを微調整します。
関連論文リスト
- "Let's Argue Both Sides": Argument Generation Can Force Small Models to Utilize Previously Inaccessible Reasoning Capabilities [0.8999666725996974]
本稿では,モデルに推論能力の活用を強制する手法として,Argument Generationを提案する。
提案手法では,可能な各推論結果に対する引数の生成と,生成した引数のランク付けをエンドモデルに依頼する。
論文 参考訳(メタデータ) (2024-10-16T19:49:30Z) - Auditing Counterfire: Evaluating Advanced Counterargument Generation with Evidence and Style [11.243184875465788]
GPT-3.5 Turboは、高いパラフレーズとスタイルの忠実さ、特に相互のスタイルの議論において、議論の質で最高にランクされた。
文体的な反論はまだ人間の説得力基準に欠けており、人々は証拠に基づく反論に相反することを好んでいる。
論文 参考訳(メタデータ) (2024-02-13T14:53:12Z) - Argue with Me Tersely: Towards Sentence-Level Counter-Argument
Generation [62.069374456021016]
本稿では,文レベル逆問題生成のためのArgTerselyベンチマークを提案する。
また,Arg-LlaMAによる高品質な逆問題生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T06:51:34Z) - Exploring the Potential of Large Language Models in Computational Argumentation [54.85665903448207]
大規模言語モデル (LLM) は、文脈を理解し、自然言語を生成するという印象的な能力を実証している。
この研究は、ChatGPT、Flanモデル、LLaMA2モデルなどのLLMをゼロショットと少数ショットの両方で評価することを目的としている。
論文 参考訳(メタデータ) (2023-11-15T15:12:15Z) - ArgU: A Controllable Factual Argument Generator [0.0]
ArgUは、入力された事実と実世界の概念から現実の議論を生成することができる神経引数生成器である。
我々は6つのトピックと6つの引数スキームにまたがる69,428の引数からなる注釈付きコーパスを作成した。
論文 参考訳(メタデータ) (2023-05-09T10:49:45Z) - Retrieval-Augmented Generative Question Answering for Event Argument
Extraction [66.24622127143044]
イベント引数抽出のための検索拡張生成QAモデル(R-GQA)を提案する。
最も類似したQAペアを検索し、現在の例のコンテキストへのプロンプトとして拡張し、引数を回答としてデコードする。
提案手法は, 様々な設定において, かなり先行した手法より優れている。
論文 参考訳(メタデータ) (2022-11-14T02:00:32Z) - Diversity Over Size: On the Effect of Sample and Topic Sizes for Topic-Dependent Argument Mining Datasets [49.65208986436848]
本研究では,アーギュメント・マイニング・データセットの構成が,少数・ゼロショット設定における影響について検討する。
実験結果から, モデル性能の達成には微調整が必須であるが, 慎重に構成したトレーニングサンプルを用いることで, トレーニングサンプルサイズを最大90%まで下げることで, 最大性能の95%を達成できることがわかった。
論文 参考訳(メタデータ) (2022-05-23T17:14:32Z) - Multilingual Generative Language Models for Zero-Shot Cross-Lingual
Event Argument Extraction [80.61458287741131]
ゼロショット言語間イベント引数抽出(EAE)における多言語事前学習型生成言語モデルの活用について検討する。
EAEを言語生成タスクとして定式化することにより、イベント構造を効果的にエンコードし、引数間の依存関係をキャプチャする。
提案するモデルでは,多言語事前学習型生成言語モデルを用いて,入力文から抽出した引数で言語に依存しないテンプレートを補う文を生成する。
論文 参考訳(メタデータ) (2022-03-15T23:00:32Z) - AMPERSAND: Argument Mining for PERSuAsive oNline Discussions [41.06165177604387]
本稿では,オンライン議論フォーラムにおける議論マイニングのための計算モデルを提案する。
我々のアプローチは、議論スレッド内の引数のコンポーネント間の関係を識別することに依存します。
我々のモデルは最近の最先端のアプローチと比較して大幅に改善されている。
論文 参考訳(メタデータ) (2020-04-30T10:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。