論文の概要: Toxicity Begets Toxicity: Unraveling Conversational Chains in Political Podcasts
- arxiv url: http://arxiv.org/abs/2501.12640v2
- Date: Fri, 29 Aug 2025 10:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 17:44:08.712454
- Title: Toxicity Begets Toxicity: Unraveling Conversational Chains in Political Podcasts
- Title(参考訳): Toxicity:政治ポッドキャストにおける会話の連鎖の解明
- Authors: Naquee Rizwan, Nayandeep Deb, Sarthak Roy, Vishwajeet Singh Solanki, Kiran Garimella, Animesh Mukherjee,
- Abstract要約: この研究は、政治ポッドキャストのテキストのデータセットをキュレートし、会話の構造に焦点をあてて分析することで、このギャップを埋めようとしている。
具体的には,これらの対話の中で,有害な言語が会話の交互にエスカレートする有機パターンに光を当てることによって,有害性がどのように表面化し,反応の順序によって強化されるかを検討する。
- 参考スコア(独自算出の注目度): 5.573483199335299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tackling toxic behavior in digital communication continues to be a pressing concern for both academics and industry professionals. While significant research has explored toxicity on platforms like social networks and discussion boards, podcasts despite their rapid rise in popularity remain relatively understudied in this context. This work seeks to fill that gap by curating a dataset of political podcast transcripts and analyzing them with a focus on conversational structure. Specifically, we investigate how toxicity surfaces and intensifies through sequences of replies within these dialogues, shedding light on the organic patterns by which harmful language can escalate across conversational turns. Warning: Contains potentially abusive/toxic contents.
- Abstract(参考訳): デジタルコミュニケーションにおける有害な振る舞いに対処することは、学者と業界の専門家の両方にとって、引き続き厳しい関心事となっている。
ソーシャルネットワークや掲示板などのプラットフォームで毒性を調査する研究が盛んに行われているが、ポッドキャストの人気が急上昇したにもかかわらず、この文脈ではポッドキャストは比較的研究が進んでいない。
この研究は、政治ポッドキャストのテキストのデータセットをキュレートし、会話の構造に焦点をあてて分析することで、このギャップを埋めようとしている。
具体的には,これらの対話の中で,有害な言語が会話の交互にエスカレートする有機パターンに光を当てることによって,有害性がどのように表面化し,反応の順序によって強化されるかを検討する。
警告: 潜在的に乱用または有害な内容を含む。
関連論文リスト
- Aligning Spoken Dialogue Models from User Interactions [55.192134724622235]
本稿では,ユーザの対話からリアルタイム会話における音声対話モデルを改善するための新しい嗜好アライメントフレームワークを提案する。
AIフィードバックを付加した生のマルチターン音声会話から15万以上の好みペアのデータセットを作成する。
本研究は, 自然なリアルタイム音声対話システムにおいて重要な, 様々な力学におけるバランスの整合性の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-26T16:45:20Z) - ToxicTone: A Mandarin Audio Dataset Annotated for Toxicity and Toxic Utterance Tonality [35.517662288248225]
ToxicToneはこの種の公開データセットとしては最大である。
我々のデータは、様々な現実世界のオーディオから導き出され、13のトピックに分類される。
本研究では,音響的,言語的,感情的特徴を統合したマルチモーダル検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T17:25:27Z) - Talking Point based Ideological Discourse Analysis in News Events [62.18747509565779]
本稿では,イデオロギー的談話分析理論をモチベーションとして,実世界の出来事に関するニュース記事を分析する枠組みを提案する。
我々のフレームワークは,話題のトピックとともに,エンティティ,役割,メディアフレーム間の相互作用を捉えた,会話ポイントという関係構造を用いたニュース記事を表現している。
我々は,人間の検証によって補足されたイデオロギーや分派的分類タスクを通じて,これらの視点を自動で生成するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2025-04-10T02:52:34Z) - MoonCast: High-Quality Zero-Shot Podcast Generation [81.29927724674602]
MoonCastは高品質のゼロショットポッドキャスト生成ソリューションである。
テキストのみのソースから自然なポッドキャストスタイルの音声を合成することを目的としている。
実験では、MoonCastはベースラインを上回っている。
論文 参考訳(メタデータ) (2025-03-18T15:25:08Z) - SafeSpeech: A Comprehensive and Interactive Tool for Analysing Sexist and Abusive Language in Conversations [7.4815142964548205]
SafeSpeechは、有害なコンテンツの検出と分析のための総合的なプラットフォームである。
メッセージレベルと会話レベルの洞察をブリッジする。
このプラットフォームは、微調整の分類器と大きな言語モデルを統合する。
EDOS、OffensEval、HatEvalといったベンチマークデータセットの評価は、最先端のパフォーマンスの再現を実証している。
論文 参考訳(メタデータ) (2025-03-09T09:31:17Z) - WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - Characterizing Online Toxicity During the 2022 Mpox Outbreak: A Computational Analysis of Topical and Network Dynamics [0.9831489366502301]
2022年のムポックスの流行は、当初は「モンキーポックス」と呼ばれていたが、その後、関連するスティグマや社会的懸念を緩和するために改名された。
我々は660万以上のユニークツイートを収集し、コンテキスト、範囲、コンテンツ、話者、意図といった5つの次元から分析しました。
我々は、Twitter上での有害なオンライン談話(46.6%)、病気(46.6%)、健康政策と医療(19.3%)、ホモフォビア(23.9%)、政治など、高レベルのトピックを5つ特定した。
有毒なコンテンツのリツイートが広まっていたのに対して、影響力のあるユーザはリツイートを通じてこの有毒な行為に関わったり、反対したりすることはめったにない。
論文 参考訳(メタデータ) (2024-08-21T19:31:01Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - SpokenWOZ: A Large-Scale Speech-Text Benchmark for Spoken Task-Oriented
Dialogue Agents [72.42049370297849]
SpokenWOZは音声TODのための大規模音声テキストデータセットである。
SpokenWOZでは、クロスターンスロットと推論スロット検出が新たな課題である。
論文 参考訳(メタデータ) (2023-05-22T13:47:51Z) - Handling Bias in Toxic Speech Detection: A Survey [26.176340438312376]
本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
論文 参考訳(メタデータ) (2022-01-26T10:38:36Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - Speech Toxicity Analysis: A New Spoken Language Processing Task [32.297717021285344]
ヘイトスピーチ(英: hate speech)またはヘイトスピーチ(英: hate speech)は、今日のオンラインソーシャルメディアを悩ませる重要な問題の1つである。
音声音声から有害性を検出する新しい音声言語処理タスクを提案する。
DeToxyは、様々な公開音声データベースから得られた英語音声に対する、初めて公開された毒性アノテートデータセットである。
論文 参考訳(メタデータ) (2021-10-14T17:51:04Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Modeling Language Usage and Listener Engagement in Podcasts [3.8966039534272916]
語彙の多様性、特徴性、感情、構文の様々な要因がエンゲージメントとどのように相関するかを検討する。
異なるテキスト表現を持つモデルを構築し、識別された特徴がエンゲージメントを非常に予測可能であることを示す。
我々の分析は、ハイエンゲージメントポッドキャストのスタイル的要素に関する一般的な知恵を検証し、いくつかの側面を分類し、他の側面に新たな視点を加える。
論文 参考訳(メタデータ) (2021-06-11T20:40:15Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。