論文の概要: Detecting Attackable Sentences in Arguments
- arxiv url: http://arxiv.org/abs/2010.02660v1
- Date: Tue, 6 Oct 2020 12:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:55:07.802571
- Title: Detecting Attackable Sentences in Arguments
- Title(参考訳): 議論における攻撃可能な文の検出
- Authors: Yohan Jo, Seojin Bang, Emaad Manzoor, Eduard Hovy, Chris Reed
- Abstract要約: 我々は、議論における攻撃の動機を分析し、文の特徴を同定する。
機械学習モデルは、引数中の攻撃可能な文を自動的に検出できることを示す。
- 参考スコア(独自算出の注目度): 10.20577647332734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding attackable sentences in an argument is the first step toward
successful refutation in argumentation. We present a first large-scale analysis
of sentence attackability in online arguments. We analyze driving reasons for
attacks in argumentation and identify relevant characteristics of sentences. We
demonstrate that a sentence's attackability is associated with many of these
characteristics regarding the sentence's content, proposition types, and tone,
and that an external knowledge source can provide useful information about
attackability. Building on these findings, we demonstrate that machine learning
models can automatically detect attackable sentences in arguments,
significantly better than several baselines and comparably well to laypeople.
- Abstract(参考訳): 議論の中で攻撃的な文を見つけることは、議論における反論の成功への第一歩である。
オンライン議論における文攻撃可能性の大規模分析について述べる。
議論における攻撃の原因を分析し,関連する文の特徴を同定する。
文の攻撃性は文の内容,命題タイプ,トーンに関するこれらの特徴の多くに関連付けられており,外部知識源が攻撃性に関する有用な情報を提供できることを示す。
これらの結果をもとに,機械学習モデルによって,攻撃可能な文を自動的に検出できることを実証した。
関連論文リスト
- Explaining Arguments' Strength: Unveiling the Role of Attacks and Supports (Technical Report) [13.644164255651472]
関係属性説明(RAE)の新理論を提案する。
RAEは、攻撃の役割に関するきめ細かい洞察を提供し、議論の強さを得るための定量的双極性議論を支援する。
不正検出および大規模言語モデルケーススタディにおけるRAEの応用価値を示す。
論文 参考訳(メタデータ) (2024-04-22T16:02:48Z) - CASA: Causality-driven Argument Sufficiency Assessment [79.13496878681309]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは前提イベントの導入が前提イベントと結論イベントの両方が欠落した場合の結論につながる可能性を測っている。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - TASA: Deceiving Question Answering Models by Twin Answer Sentences
Attack [93.50174324435321]
本稿では,質問応答(QA)モデルに対する敵対的攻撃手法であるTASA(Twin Answer Sentences Attack)を提案する。
TASAは、金の回答を維持しながら、流動的で文法的な逆境を生み出す。
論文 参考訳(メタデータ) (2022-10-27T07:16:30Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - LPAttack: A Feasible Annotation Scheme for Capturing Logic Pattern of
Attacks in Arguments [33.445994192714956]
議論的な言論において、説得は、しばしば他人の議論に反論したり攻撃したりすることで達成される。
既存の研究では、攻撃における複雑な修辞的な動きや、その中の前提や価値の判断を捉えていない。
LPAttackは、攻撃における共通モードと複雑な修辞の動きを、暗黙の前提と値の判断とともにキャプチャする、新しいアノテーションスキームである。
論文 参考訳(メタデータ) (2022-04-04T14:15:25Z) - Argument Undermining: Counter-Argument Generation by Attacking Weak
Premises [31.463885580010192]
我々は、議論を損なうこと、すなわち、その前提の1つを攻撃することによって議論に逆らうことを探る。
そこで我々は,まず前提の強度を評価し,弱体化をターゲットとした逆問題を生成するパイプライン手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T08:39:14Z) - Extracting Implicitly Asserted Propositions in Argumentation [8.20413690846954]
本研究では,議論において暗黙的に主張された命題,報告された言論,命令文を抽出する手法について検討した。
本研究は,これらのレトリック装置の論証マイニングとセマンティクスに関する今後の研究について報告する。
論文 参考訳(メタデータ) (2020-10-06T12:03:47Z) - Aspect-Controlled Neural Argument Generation [65.91772010586605]
我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
論文 参考訳(メタデータ) (2020-04-30T20:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。