論文の概要: How to disagree well: Investigating the dispute tactics used on
Wikipedia
- arxiv url: http://arxiv.org/abs/2212.08353v1
- Date: Fri, 16 Dec 2022 09:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:36:19.613288
- Title: How to disagree well: Investigating the dispute tactics used on
Wikipedia
- Title(参考訳): 意見の相違:wikipediaで使われている紛争戦術を調査
- Authors: Christine de Kock, Tom Stafford, Andreas Vlachos
- Abstract要約: 本稿では,毒性の検出と議論構造の分析という視点を統一する論争戦術の枠組みを提案する。
この枠組みは、アドホミン攻撃から中心的議論への反論まで、反感型戦術の優先的な順序を含む。
これらのアノテーションは,エスカレーション予測タスクの性能向上に有用な追加信号を提供するために利用できることを示す。
- 参考スコア(独自算出の注目度): 17.354674873244335
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Disagreements are frequently studied from the perspective of either detecting
toxicity or analysing argument structure. We propose a framework of dispute
tactics that unifies these two perspectives, as well as other dialogue acts
which play a role in resolving disputes, such as asking questions and providing
clarification. This framework includes a preferential ordering among
rebuttal-type tactics, ranging from ad hominem attacks to refuting the central
argument. Using this framework, we annotate 213 disagreements (3,865
utterances) from Wikipedia Talk pages. This allows us to investigate research
questions around the tactics used in disagreements; for instance, we provide
empirical validation of the approach to disagreement recommended by Wikipedia.
We develop models for multilabel prediction of dispute tactics in an utterance,
achieving the best performance with a transformer-based label powerset model.
Adding an auxiliary task to incorporate the ordering of rebuttal tactics
further yields a statistically significant increase. Finally, we show that
these annotations can be used to provide useful additional signals to improve
performance on the task of predicting escalation.
- Abstract(参考訳): 診断は毒性の検出や議論構造の分析の観点から頻繁に研究される。
本稿では,これらの2つの視点を統一した紛争戦術の枠組みと,質問や明確化といった紛争解決に寄与する他の対話行為を提案する。
このフレームワークには、アドホミネム攻撃から中央引数の反論まで、rebuttal型戦術の優先順序が含まれている。
このフレームワークを使用して、Wikipedia Talkページから213の意見の不一致(3,865発)を注釈する。
例えば、ウィキペディアが推奨する意見の不一致に対するアプローチの実証的な検証を行う。
我々は,変圧器を用いたラベルパワーセットモデルを用いて,論争戦術のマルチラベル予測を発話で行うモデルを開発した。
報復戦術の順序を組み込む補助的なタスクを追加することで、統計的に重要な増加をもたらす。
最後に、これらのアノテーションを使用して、エスカレーション予測タスクの性能向上に有用な追加信号を提供できることを示す。
関連論文リスト
- An action language-based formalisation of an abstract argumentation framework [2.6988814189407937]
抽象的議論グラフをモデル化するための新しいフレームワークを提案する。
報酬の順序を考慮に入れることで、各対話に固有の結果を導出する手段が得られます。
論文 参考訳(メタデータ) (2024-09-29T09:24:29Z) - Explaining Arguments' Strength: Unveiling the Role of Attacks and Supports (Technical Report) [13.644164255651472]
関係属性説明(RAE)の新理論を提案する。
RAEは、攻撃の役割に関するきめ細かい洞察を提供し、議論の強さを得るための定量的双極性議論を支援する。
不正検出および大規模言語モデルケーススタディにおけるRAEの応用価値を示す。
論文 参考訳(メタデータ) (2024-04-22T16:02:48Z) - Exploring Jiu-Jitsu Argumentation for Writing Peer Review Rebuttals [70.22179850619519]
議論の多くの領域では、人々の議論はいわゆる態度のルーツによって駆動される。
心理学における最近の研究は、表面的な推論に直接対抗するのではなく、ジウジツの「ソフト」戦闘システムに触発された議論スタイルに従うべきであることを示唆している。
我々は,新たな態度課題とテーマ誘導的反論生成を提案することによって,ピアレビューのための時事論争を初めて探求する。
論文 参考訳(メタデータ) (2023-11-07T13:54:01Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - DialFact: A Benchmark for Fact-Checking in Dialogue [56.63709206232572]
われわれはDialFactという22,245の注釈付き会話クレームのベンチマークデータセットを構築し、ウィキペディアの証拠と組み合わせた。
FEVERのような非対話データでトレーニングされた既存のファクトチェックモデルは、我々のタスクでうまく機能しないことがわかった。
本稿では,対話におけるファクトチェック性能を効果的に向上する,シンプルなデータ効率のソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-15T17:34:35Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - Diversity Aware Relevance Learning for Argument Search [2.9319293268960025]
本研究では,議論探索問題に対する新たな多段階的アプローチを提案する。
提案手法では,地道的な代入に頼るのではなく,機械学習モデルを用いて議論間の意味的関係を抽出する。
論文 参考訳(メタデータ) (2020-11-04T08:37:44Z) - Debate Dynamics for Human-comprehensible Fact-checking on Knowledge
Graphs [27.225048123690243]
本稿では,議論力学に基づく知識グラフのファクトチェック手法を提案する。
基礎となる考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを設定することである。
提案手法では,知識グラフの対話的推論が可能であり,ユーザが追加の議論を提起したり,共通感覚推論や外部情報を考慮した議論を評価できる。
論文 参考訳(メタデータ) (2020-01-09T15:19:45Z) - Reasoning on Knowledge Graphs with Debate Dynamics [27.225048123690243]
本稿では,議論力学に基づく知識グラフの自動推論手法を提案する。
主な考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを組むことである。
本稿では3つの分類とリンク予測タスクについてベンチマークを行う。
論文 参考訳(メタデータ) (2020-01-02T14:44:23Z) - Defensive Few-shot Learning [77.82113573388133]
本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
論文 参考訳(メタデータ) (2019-11-16T05:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。