論文の概要: LifeTox: Unveiling Implicit Toxicity in Life Advice
- arxiv url: http://arxiv.org/abs/2311.09585v1
- Date: Thu, 16 Nov 2023 05:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:26:05.298822
- Title: LifeTox: Unveiling Implicit Toxicity in Life Advice
- Title(参考訳): LifeTox:ライフアドバイザの有害毒性を明らかにする
- Authors: Minbeom Kim, Jahyun Koo, Hwanhee Lee, Joonsuk Park, Hwaran Lee, Kyomin
Jung
- Abstract要約: LifeToxは、幅広いアドバイス検索シナリオ内で暗黙の毒性を特定するために設計されたデータセットである。
毒性分類タスクにおいて、LifeToxに微調整されたRoBERTaは、大きな言語モデルのゼロショット性能にマッチするか、上回っている。
- 参考スコア(独自算出の注目度): 28.732847229006264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models become increasingly integrated into daily life,
detecting implicit toxicity across diverse contexts is crucial. To this end, we
introduce LifeTox, a dataset designed for identifying implicit toxicity within
a broad range of advice-seeking scenarios. Unlike existing safety datasets,
LifeTox comprises diverse contexts derived from personal experiences through
open-ended questions. Experiments demonstrate that RoBERTa fine-tuned on
LifeTox matches or surpasses the zero-shot performance of large language models
in toxicity classification tasks. These results underscore the efficacy of
LifeTox in addressing the complex challenges inherent in implicit toxicity.
- Abstract(参考訳): 大きな言語モデルが日々の生活にますます統合されるにつれて、様々な文脈で暗黙的な毒性を検出することが重要である。
この目的のために、幅広いアドバイス検索シナリオ内で暗黙的な毒性を特定するために設計されたデータセットであるLifeToxを紹介する。
既存の安全データセットとは異なり、LifeToxはオープンな質問を通じて個人体験から派生したさまざまなコンテキストで構成されている。
実験により、LifeToxで微調整されたRoBERTaは、毒性分類タスクにおいて、大きな言語モデルのゼロショット性能にマッチするか、超えることを示した。
これらの結果は、暗黙の毒性に内在する複雑な課題に対処する際にlifetoxの有効性を強調する。
関連論文リスト
- FrenchToxicityPrompts: a Large Benchmark for Evaluating and Mitigating Toxicity in French Texts [13.470734853274587]
大規模言語モデル(LLM)はますます普及しているが、バイアス、有害、有害な言語を生み出す傾向にある。
自然発生のフランスプロンプト50Kのデータセットである FrenchToxicityPrompts を作成した。
LLMの4つの主要なオープンソースファミリから14の異なるモデルを評価し,その毒性を評価する。
論文 参考訳(メタデータ) (2024-06-25T14:02:11Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - You Only Prompt Once: On the Capabilities of Prompt Learning on Large
Language Models to Tackle Toxic Content [13.600755614321493]
大規模言語モデル(LLM)を用いて,オンライン上での有害コンテンツ問題に対処する方法について検討する。
1)毒性分類,2)毒性スパン検出,3)非毒性化の3つの課題に焦点をあてる。
その結果, 素早い学習は, 毒性分類タスクにおいて, ベースラインに比べて約10%改善することがわかった。
論文 参考訳(メタデータ) (2023-08-10T14:14:13Z) - ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - LED: A Dataset for Life Event Extraction from Dialogs [57.390999707053915]
ライフログは、パーソナライズされたレコメンデーションやメモリアシストなど、幅広い用途で注目を集めている。
Life Event Dialogは、会話データに詳細なライフイベントアノテーションを含むデータセットである。
本稿では,対話型ライフイベント抽出課題に対処するための3つの情報抽出(IE)フレームワークについて検討する。
論文 参考訳(メタデータ) (2023-04-17T14:46:59Z) - SurvivalGAN: Generating Time-to-Event Data for Survival Analysis [121.84429525403694]
検閲と時間的地平線の不均衡は、生成モデルに生存分析に特有の3つの新しい障害モードを経験させる。
本稿では,検閲やイベントの地平線における不均衡に対処し,生存データを扱う生成モデルであるSurvivalGANを提案する。
医療データセットに関する広範な実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-02-24T17:03:51Z) - Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - CONDA: a CONtextual Dual-Annotated dataset for in-game toxicity
understanding and detection [1.6085428542036968]
CONDAは,ゲーム内有害言語検出のための新しいデータセットである。
データセットは、1.9Kの完了したDota 2マッチのチャットログから12Kの会話から45Kの発話で構成されている。
ゲーム内毒性分析は、発話、トークン、二重レベルにおけるコンテキストの包括的理解を提供する。
論文 参考訳(メタデータ) (2021-06-11T07:42:12Z) - HLE-UPC at SemEval-2021 Task 5: Multi-Depth DistilBERT for Toxic Spans
Detection [0.0]
このタスクの目的は、テキストを有害にするスパンを検出することである。
毒性は、必ずしも侮辱や悪行のような単一の言葉からではなく、個々に有害でないかもしれない言葉によって形成される表現全体から来ることもある。
本研究では, 異なる層からの埋め込みを用いた多層ディチルベルトモデルを用いて, 最終毒性を推定する効果について検討した。
論文 参考訳(メタデータ) (2021-04-01T17:37:38Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。