論文の概要: Tox-BART: Leveraging Toxicity Attributes for Explanation Generation of Implicit Hate Speech
- arxiv url: http://arxiv.org/abs/2406.03953v1
- Date: Thu, 6 Jun 2024 10:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 15:19:49.547240
- Title: Tox-BART: Leveraging Toxicity Attributes for Explanation Generation of Implicit Hate Speech
- Title(参考訳): Tox-BART:不特定Hate音声の説明生成における毒性属性の活用
- Authors: Neemesh Yadav, Sarah Masud, Vikram Goyal, Vikram Goyal, Md Shad Akhtar, Tanmoy Chakraborty,
- Abstract要約: トレーニングはしばしば、世界的知識を提供し、標準メトリクスのパフォーマンスを改善するために、トップk関連知識グラフ(KG)を組み合わせる。
暗黙的な説明を生み出す上でKGsの品質が果たす役割の矛盾する証拠を提示する。
提案手法はゼロショット GPT-3.5 よりも高精度な説明を行い,タスクの複雑な性質を強調した。
- 参考スコア(独自算出の注目度): 36.19239032868141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Employing language models to generate explanations for an incoming implicit hate post is an active area of research. The explanation is intended to make explicit the underlying stereotype and aid content moderators. The training often combines top-k relevant knowledge graph (KG) tuples to provide world knowledge and improve performance on standard metrics. Interestingly, our study presents conflicting evidence for the role of the quality of KG tuples in generating implicit explanations. Consequently, simpler models incorporating external toxicity signals outperform KG-infused models. Compared to the KG-based setup, we observe a comparable performance for SBIC (LatentHatred) datasets with a performance variation of +0.44 (+0.49), +1.83 (-1.56), and -4.59 (+0.77) in BLEU, ROUGE-L, and BERTScore. Further human evaluation and error analysis reveal that our proposed setup produces more precise explanations than zero-shot GPT-3.5, highlighting the intricate nature of the task.
- Abstract(参考訳): 言語モデルを使用して、暗黙のヘイトポストの入力の説明を生成することは、研究の活発な領域である。
この説明は、基礎となるステレオタイプとヘルプコンテンツモデレーターを明確にすることを目的としている。
このトレーニングは、世界的知識を提供し、標準メトリクスのパフォーマンスを向上させるために、トップk関連知識グラフ(KG)タプルを組み合わせることが多い。
興味深いことに,本研究では,KGタプルの品質が暗黙的な説明を誘発する役割について,矛盾する証拠を提示する。
その結果、外部毒性シグナルを組み込んだより単純なモデルがKG注入モデルより優れている。
BLEU,ROUGE-L,BERTScoreにおける+0.44(+0.49),+1.83(-1.56),-4.59(+0.77)のSBIC(LatentHatred)データセットと同等のパフォーマンスを示す。
さらに人為的な評価と誤差分析により,提案手法はゼロショット GPT-3.5 よりも高精度な説明を行い,タスクの複雑な性質を強調した。
関連論文リスト
- HateCOT: An Explanation-Enhanced Dataset for Generalizable Offensive Speech Detection via Large Language Models [23.416609091912026]
HateCOTはイングランドのデータセットで、様々な情報源から52,000以上のサンプルを収集している。
HateCOTはGPT-3.5Turboによって生成され、ヒトによって培養される説明を特徴としている。
論文 参考訳(メタデータ) (2024-03-18T04:12:35Z) - Generative AI for Hate Speech Detection: Evaluation and Findings [11.478263835391436]
生成AIは、大量の合成ヘイトスピーチシーケンスを生成するために利用されてきた。
本章では,本手法の方法論,実験的設定,評価について概説する。
GPT-3.5やそれ以降のモデルの感度は、テキスト生成の類似技術を用いて改善できるのかという疑問が浮かび上がっている。
論文 参考訳(メタデータ) (2023-11-16T16:09:43Z) - Explanation-based Finetuning Makes Models More Robust to Spurious Cues [21.327036110196637]
大きな言語モデル(LLM)は非常に強力で、ラベルとタスクとは無関係な機能の間に相関関係を学習することがある。
本稿では,LLMの素早い相関性への依存を軽減するための一般的なアプローチとして,説明ベースファインタニングを提案する。
我々は、その解答をサポートする自由テキスト説明を新たに生成するように、モデルを微調整する。
論文 参考訳(メタデータ) (2023-05-08T18:53:45Z) - Multi-Aspect Explainable Inductive Relation Prediction by Sentence
Transformer [60.75757851637566]
本稿では,モデル学習に先立って信頼できない経路をフィルタリングし,モデル性能を高めるための関係経路カバレッジと関係経路信頼の概念を紹介する。
知識グラフにおける帰納関係を予測するために,知識推論文変換器(KRST)を提案する。
論文 参考訳(メタデータ) (2023-01-04T15:33:49Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Language Model-driven Negative Sampling [8.299192665823542]
知識グラフ埋め込み(KGE)は、究極の下流タスク(リンク予測、質問応答)の表現学習と推論を目的として、知識グラフ(KG)の実体と関係をベクトル空間に符号化する。
KGE はクローズドワールドの仮定に従い、KG の現在のすべての事実を正(正)であると仮定するので、既存の三重項の真性テストの学習過程において、負のサンプルを必要とする。
そこで本稿では,KGsにおける既存のリッチテキスト知識を考慮したネガティブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T13:27:47Z) - UTNLP at SemEval-2021 Task 5: A Comparative Analysis of Toxic Span
Detection using Attention-based, Named Entity Recognition, and Ensemble
Models [6.562256987706127]
本稿では,有害なスパン検出に関するSemEval-2021共有タスク5における,我々のチーム,UTNLP,方法論と結果について述べる。
実験はキーワードベースのモデルから始まり、アテンションベース、名前付きエンティティベース、トランスフォーマーベース、アンサンブルモデルが続く。
私たちの最良のアプローチ、アンサンブルモデルは、競争の評価段階で0.684のF1を達成します。
論文 参考訳(メタデータ) (2021-04-10T13:56:03Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。