論文の概要: Rethinking Offensive Text Detection as a Multi-Hop Reasoning Problem
- arxiv url: http://arxiv.org/abs/2204.10521v1
- Date: Fri, 22 Apr 2022 06:20:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 23:09:20.112087
- Title: Rethinking Offensive Text Detection as a Multi-Hop Reasoning Problem
- Title(参考訳): マルチホップ推論問題としての攻撃的テキスト検出の再考
- Authors: Qiang Zhang, Jason Naradowsky, Yusuke Miyao
- Abstract要約: 対話における暗黙的な攻撃的テキスト検出の課題について紹介する。
我々は、このより広い種類の攻撃的発話を理解するためには、推論が不可欠であると主張する。
このタスクの研究を支援するデータセットであるSLIGHTをリリースする。
- 参考スコア(独自算出の注目度): 15.476899850339395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the task of implicit offensive text detection in dialogues,
where a statement may have either an offensive or non-offensive interpretation,
depending on the listener and context. We argue that reasoning is crucial for
understanding this broader class of offensive utterances and release SLIGHT, a
dataset to support research on this task. Experiments using the data show that
state-of-the-art methods of offense detection perform poorly when asked to
detect implicitly offensive statements, achieving only ${\sim} 11\%$ accuracy.
In contrast to existing offensive text detection datasets, SLIGHT features
human-annotated chains of reasoning which describe the mental process by which
an offensive interpretation can be reached from each ambiguous statement. We
explore the potential for a multi-hop reasoning approach by utilizing existing
entailment models to score the probability of these chains and show that even
naive reasoning models can yield improved performance in most situations.
Furthermore, analysis of the chains provides insight into the human
interpretation process and emphasizes the importance of incorporating
additional commonsense knowledge.
- Abstract(参考訳): 対話における暗黙的攻撃的テキスト検出のタスクを導入する。文は聞き手や文脈に応じて攻撃的あるいは非攻撃的解釈を持つ可能性がある。
我々は、この幅広い攻撃的発話の理解と、このタスクの研究を支援するデータセットSLIGHTのリリースには、推論が不可欠であると主張している。
このデータを用いた実験は、暗黙的に攻撃的な文を検出するように要求された場合、最先端の犯罪検出方法が不十分であり、${\sim} 11\%$精度しか得られていないことを示している。
既存の攻撃的テキスト検出データセットとは対照的に、軽微な特徴は、各曖昧な文から攻撃的解釈に到達できる精神過程を記述する推論の人間の注釈付き連鎖である。
既存の包摂モデルを用いてこれらの連鎖の確率を評価することにより,マルチホップ推論アプローチの可能性を探究し,単純な推論モデルでさえほとんどの状況で性能の向上を期待できることを示す。
さらに、連鎖の分析は人間の解釈過程の洞察を与え、追加のコモンセンス知識を取り入れることの重要性を強調する。
関連論文リスト
- Contrastive Learning for Inference in Dialogue [56.20733835058695]
推論、特に帰納的プロセスから派生したものは、私たちの会話において重要な要素です。
近年の大規模言語モデルは推論タスクにおいて顕著な進歩を見せている。
しかし、インダクティブ推論における彼らのパフォーマンスは、すべての情報がコンテキストに存在するわけではないが、インダクティブ推論よりもはるかに遅れている。
論文 参考訳(メタデータ) (2023-10-19T04:49:36Z) - Guiding Computational Stance Detection with Expanded Stance Triangle
Framework [25.2980607215715]
スタンス検出は、テキストの著者が指定されたターゲットに対して有利か、反対か、中立かを決定する。
本稿では,言語的観点からスタンス検出タスクを分解し,このタスクにおける重要な構成要素と推論経路について検討する。
論文 参考訳(メタデータ) (2023-05-31T13:33:29Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Disentangled Text Representation Learning with Information-Theoretic
Perspective for Adversarial Robustness [17.5771010094384]
敵の脆弱性は信頼性の高いNLPシステムを構築する上で大きな障害である。
最近の研究は、モデルの敵意的な脆弱性は教師あり訓練における非破壊的な特徴によって引き起こされると主張している。
本稿では,不整合表現学習の観点から,敵対的課題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T18:14:39Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - PROMPT WAYWARDNESS: The Curious Case of Discretized Interpretation of
Continuous Prompts [99.03864962014431]
目標タスクの微調整連続プロンプトは、フルモデルの微調整に代わるコンパクトな代替品として登場した。
実際には、連続的なプロンプトによって解決されたタスクと、最も近い隣人との間の「方向」の挙動を観察する。
論文 参考訳(メタデータ) (2021-12-15T18:55:05Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Brittle interpretations: The Vulnerability of TCAV and Other
Concept-based Explainability Tools to Adversarial Attack [0.0]
モデル説明可能性の手法は、深層学習の公平性と健全性をテストするためにますます重要になっている。
これらの手法は、解析対象のモデルと敵対的攻撃に対して同じ脆弱性を負う可能性があることを示す。
論文 参考訳(メタデータ) (2021-10-14T02:12:33Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Amnesic Probing: Behavioral Explanation with Amnesic Counterfactuals [53.484562601127195]
調査結果から行動学的結論を推測できない点を指摘する。
我々は、どの情報がエンコードされているかではなく、その情報がどのように使われているかに焦点を当てた代替手段を提供する。
論文 参考訳(メタデータ) (2020-06-01T15:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。