論文の概要: Detecting Attackable Sentences in Arguments
- arxiv url: http://arxiv.org/abs/2010.02660v1
- Date: Tue, 6 Oct 2020 12:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:55:07.802571
- Title: Detecting Attackable Sentences in Arguments
- Title(参考訳): 議論における攻撃可能な文の検出
- Authors: Yohan Jo, Seojin Bang, Emaad Manzoor, Eduard Hovy, Chris Reed
- Abstract要約: 我々は、議論における攻撃の動機を分析し、文の特徴を同定する。
機械学習モデルは、引数中の攻撃可能な文を自動的に検出できることを示す。
- 参考スコア(独自算出の注目度): 10.20577647332734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding attackable sentences in an argument is the first step toward
successful refutation in argumentation. We present a first large-scale analysis
of sentence attackability in online arguments. We analyze driving reasons for
attacks in argumentation and identify relevant characteristics of sentences. We
demonstrate that a sentence's attackability is associated with many of these
characteristics regarding the sentence's content, proposition types, and tone,
and that an external knowledge source can provide useful information about
attackability. Building on these findings, we demonstrate that machine learning
models can automatically detect attackable sentences in arguments,
significantly better than several baselines and comparably well to laypeople.
- Abstract(参考訳): 議論の中で攻撃的な文を見つけることは、議論における反論の成功への第一歩である。
オンライン議論における文攻撃可能性の大規模分析について述べる。
議論における攻撃の原因を分析し,関連する文の特徴を同定する。
文の攻撃性は文の内容,命題タイプ,トーンに関するこれらの特徴の多くに関連付けられており,外部知識源が攻撃性に関する有用な情報を提供できることを示す。
これらの結果をもとに,機械学習モデルによって,攻撃可能な文を自動的に検出できることを実証した。
関連論文リスト
- Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Turning Logic Against Itself : Probing Model Defenses Through Contrastive Questions [51.51850981481236]
非倫理的反応を引き起こすために、対照的な推論を利用する新しいジェイルブレイク手法であるPOATEを導入する。
PoATEは意味論的に意図に反し、敵のテンプレートと統合し、有害なアウトプットを驚くほど微妙に操る。
これに対応するために、悪意のある意図と理性を検出するためにクエリを分解して、有害な応答を評価し、拒否するIntent-Aware CoTとReverse Thinking CoTを提案する。
論文 参考訳(メタデータ) (2025-01-03T15:40:03Z) - Explaining Arguments' Strength: Unveiling the Role of Attacks and Supports (Technical Report) [13.644164255651472]
関係属性説明(RAE)の新理論を提案する。
RAEは、攻撃の役割に関するきめ細かい洞察を提供し、議論の強さを得るための定量的双極性議論を支援する。
不正検出および大規模言語モデルケーススタディにおけるRAEの応用価値を示す。
論文 参考訳(メタデータ) (2024-04-22T16:02:48Z) - CASA: Causality-driven Argument Sufficiency Assessment [79.13496878681309]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは前提イベントの導入が前提イベントと結論イベントの両方が欠落した場合の結論につながる可能性を測っている。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - TASA: Deceiving Question Answering Models by Twin Answer Sentences
Attack [93.50174324435321]
本稿では,質問応答(QA)モデルに対する敵対的攻撃手法であるTASA(Twin Answer Sentences Attack)を提案する。
TASAは、金の回答を維持しながら、流動的で文法的な逆境を生み出す。
論文 参考訳(メタデータ) (2022-10-27T07:16:30Z) - LPAttack: A Feasible Annotation Scheme for Capturing Logic Pattern of
Attacks in Arguments [33.445994192714956]
議論的な言論において、説得は、しばしば他人の議論に反論したり攻撃したりすることで達成される。
既存の研究では、攻撃における複雑な修辞的な動きや、その中の前提や価値の判断を捉えていない。
LPAttackは、攻撃における共通モードと複雑な修辞の動きを、暗黙の前提と値の判断とともにキャプチャする、新しいアノテーションスキームである。
論文 参考訳(メタデータ) (2022-04-04T14:15:25Z) - Argument Undermining: Counter-Argument Generation by Attacking Weak
Premises [31.463885580010192]
我々は、議論を損なうこと、すなわち、その前提の1つを攻撃することによって議論に逆らうことを探る。
そこで我々は,まず前提の強度を評価し,弱体化をターゲットとした逆問題を生成するパイプライン手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T08:39:14Z) - Extracting Implicitly Asserted Propositions in Argumentation [8.20413690846954]
本研究では,議論において暗黙的に主張された命題,報告された言論,命令文を抽出する手法について検討した。
本研究は,これらのレトリック装置の論証マイニングとセマンティクスに関する今後の研究について報告する。
論文 参考訳(メタデータ) (2020-10-06T12:03:47Z) - Aspect-Controlled Neural Argument Generation [65.91772010586605]
我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
論文 参考訳(メタデータ) (2020-04-30T20:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。