論文の概要: Dynamics of Toxicity in Political Podcasts
- arxiv url: http://arxiv.org/abs/2501.12640v1
- Date: Wed, 22 Jan 2025 04:58:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 18:44:13.942895
- Title: Dynamics of Toxicity in Political Podcasts
- Title(参考訳): 政治ポッドキャストにおける毒性のダイナミクス
- Authors: Naquee Rizwan, Nayandeep Deb, Sarthak Roy, Vishwajeet Singh Solanki, Kiran Garimella, Animesh Mukherjee,
- Abstract要約: デジタルメディアにおける毒性は大きな課題を呈するが、ポッドキャストの急速に成長するメディアにおけるそのダイナミクスにはほとんど注意が払われていない。
本稿では,政治ポッドキャストデータを分析し,毒性の出現と伝播を研究することにより,このギャップを解消する。
米国における30以上のポピュラーな政治ポッドキャストにおいて,有毒な言論を体系的に検討した。
- 参考スコア(独自算出の注目度): 4.5621281512257434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Toxicity in digital media poses significant challenges, yet little attention has been given to its dynamics within the rapidly growing medium of podcasts. This paper addresses this gap by analyzing political podcast data to study the emergence and propagation of toxicity, focusing on conversation chains-structured reply patterns within podcast transcripts. Leveraging state-of-the-art transcription models and advanced conversational analysis techniques, we systematically examine toxic discourse in over 30 popular political podcasts in the United States. Our key contributions include: (1) creating a comprehensive dataset of transcribed and diarized political podcasts, identifying thousands of toxic instances using Google's Perspective API, (2) uncovering concerning trends where a majority of episodes contain at least one toxic instance, (3) introducing toxic conversation chains and analyzing their structural and linguistic properties, revealing characteristics such as longer durations, repetitive patterns, figurative language, and emotional cues tied to anger and annoyance, (4) identifying demand-related words like 'want', 'like', and 'know' as precursors to toxicity, and (5) developing predictive models to anticipate toxicity shifts based on annotated change points. Our findings provide critical insights into podcast toxicity and establish a foundation for future research on real-time monitoring and intervention mechanisms to foster healthier discourse in this influential medium.
- Abstract(参考訳): デジタルメディアにおける毒性は大きな課題を呈するが、ポッドキャストの急速に成長するメディアにおけるそのダイナミクスにはほとんど注意が払われていない。
本稿では,政治ポッドキャストデータを分析して毒性の出現と伝播を解析し,ポッドキャストの書き起こし中の会話連鎖構造に基づく応答パターンに着目した。
最先端の書き起こしモデルと高度な会話分析技術を活用し、米国における30以上のポピュラーな政治ポッドキャストにおける有害な言論を体系的に検討した。
主な貢献は,(1)翻訳およびダイアリゼーションされた政治ポッドキャストの包括的データセットの作成,(2)Googleのspective APIを用いた数千件の有害なインスタンスの識別,(3)有害な会話連鎖の導入,それらの構造的・言語的特性の解析,怒りと不安に結びついた長期性,反復パターン,具体的言語,感情的手がかりなどの特徴を明らかにすること,(4)「ワント」,「いいね」,「ノウ」などの需要関連単語を毒性の前駆体として同定すること,(5) 毒性変化を予測するための予測モデルの開発である。
本研究はポッドキャストの毒性に関する重要な知見を提供し、この影響力のあるメディアにおけるより健康的な言論を育むためのリアルタイムモニタリングと介入のメカニズムに関する今後の研究の基礎を築いた。
関連論文リスト
- Identifying Constructive Conflict in Online Discussions through Controversial yet Toxicity Resilient Posts [41.130462443875736]
我々は、議論の的となり、挑戦的な対話と有害なレジリエンスを識別し、敬意を込めた会話を捉える。
また、政治的ポストはしばしば議論の余地があり、より有毒な反応を惹きつける傾向があることもわかりました。
これらの知見は、建設的な政治的議論を促進するためにポストのトーンをフレーミングする可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-22T18:30:41Z) - Aligning Spoken Dialogue Models from User Interactions [55.192134724622235]
本稿では,ユーザの対話からリアルタイム会話における音声対話モデルを改善するための新しい嗜好アライメントフレームワークを提案する。
AIフィードバックを付加した生のマルチターン音声会話から15万以上の好みペアのデータセットを作成する。
本研究は, 自然なリアルタイム音声対話システムにおいて重要な, 様々な力学におけるバランスの整合性の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-26T16:45:20Z) - ToxicTone: A Mandarin Audio Dataset Annotated for Toxicity and Toxic Utterance Tonality [35.517662288248225]
ToxicToneはこの種の公開データセットとしては最大である。
我々のデータは、様々な現実世界のオーディオから導き出され、13のトピックに分類される。
本研究では,音響的,言語的,感情的特徴を統合したマルチモーダル検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T17:25:27Z) - Talking Point based Ideological Discourse Analysis in News Events [62.18747509565779]
本稿では,イデオロギー的談話分析理論をモチベーションとして,実世界の出来事に関するニュース記事を分析する枠組みを提案する。
我々のフレームワークは,話題のトピックとともに,エンティティ,役割,メディアフレーム間の相互作用を捉えた,会話ポイントという関係構造を用いたニュース記事を表現している。
我々は,人間の検証によって補足されたイデオロギーや分派的分類タスクを通じて,これらの視点を自動で生成するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2025-04-10T02:52:34Z) - MoonCast: High-Quality Zero-Shot Podcast Generation [81.29927724674602]
MoonCastは高品質のゼロショットポッドキャスト生成ソリューションである。
テキストのみのソースから自然なポッドキャストスタイルの音声を合成することを目的としている。
実験では、MoonCastはベースラインを上回っている。
論文 参考訳(メタデータ) (2025-03-18T15:25:08Z) - SafeSpeech: A Comprehensive and Interactive Tool for Analysing Sexist and Abusive Language in Conversations [7.4815142964548205]
SafeSpeechは、有害なコンテンツの検出と分析のための総合的なプラットフォームである。
メッセージレベルと会話レベルの洞察をブリッジする。
このプラットフォームは、微調整の分類器と大きな言語モデルを統合する。
EDOS、OffensEval、HatEvalといったベンチマークデータセットの評価は、最先端のパフォーマンスの再現を実証している。
論文 参考訳(メタデータ) (2025-03-09T09:31:17Z) - WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - Characterizing Online Toxicity During the 2022 Mpox Outbreak: A Computational Analysis of Topical and Network Dynamics [0.9831489366502301]
2022年のムポックスの流行は、当初は「モンキーポックス」と呼ばれていたが、その後、関連するスティグマや社会的懸念を緩和するために改名された。
我々は660万以上のユニークツイートを収集し、コンテキスト、範囲、コンテンツ、話者、意図といった5つの次元から分析しました。
我々は、Twitter上での有害なオンライン談話(46.6%)、病気(46.6%)、健康政策と医療(19.3%)、ホモフォビア(23.9%)、政治など、高レベルのトピックを5つ特定した。
有毒なコンテンツのリツイートが広まっていたのに対して、影響力のあるユーザはリツイートを通じてこの有毒な行為に関わったり、反対したりすることはめったにない。
論文 参考訳(メタデータ) (2024-08-21T19:31:01Z) - Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Understanding Multi-Turn Toxic Behaviors in Open-Domain Chatbots [8.763670548363443]
新しい攻撃である毒物ボットは、多ターン会話において有毒な反応を生成するために開発された。
有害なボットは、産業と研究者の両方が会話における有害な反応を検出し緩和する方法を開発するために使用できる。
論文 参考訳(メタデータ) (2023-07-14T03:58:42Z) - SpokenWOZ: A Large-Scale Speech-Text Benchmark for Spoken Task-Oriented
Dialogue Agents [72.42049370297849]
SpokenWOZは音声TODのための大規模音声テキストデータセットである。
SpokenWOZでは、クロスターンスロットと推論スロット検出が新たな課題である。
論文 参考訳(メタデータ) (2023-05-22T13:47:51Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Handling Bias in Toxic Speech Detection: A Survey [26.176340438312376]
本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
論文 参考訳(メタデータ) (2022-01-26T10:38:36Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Speech Toxicity Analysis: A New Spoken Language Processing Task [32.297717021285344]
ヘイトスピーチ(英: hate speech)またはヘイトスピーチ(英: hate speech)は、今日のオンラインソーシャルメディアを悩ませる重要な問題の1つである。
音声音声から有害性を検出する新しい音声言語処理タスクを提案する。
DeToxyは、様々な公開音声データベースから得られた英語音声に対する、初めて公開された毒性アノテートデータセットである。
論文 参考訳(メタデータ) (2021-10-14T17:51:04Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Modeling Language Usage and Listener Engagement in Podcasts [3.8966039534272916]
語彙の多様性、特徴性、感情、構文の様々な要因がエンゲージメントとどのように相関するかを検討する。
異なるテキスト表現を持つモデルを構築し、識別された特徴がエンゲージメントを非常に予測可能であることを示す。
我々の分析は、ハイエンゲージメントポッドキャストのスタイル的要素に関する一般的な知恵を検証し、いくつかの側面を分類し、他の側面に新たな視点を加える。
論文 参考訳(メタデータ) (2021-06-11T20:40:15Z) - The Structure of Toxic Conversations on Twitter [10.983958397797847]
Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
論文 参考訳(メタデータ) (2021-05-25T01:18:02Z) - Detecting Inappropriate Messages on Sensitive Topics that Could Harm a
Company's Reputation [64.22895450493729]
カメや釣りの穏やかな議論は、政治や性的マイノリティの議論よりも不適切な有毒な対話を後押しします。
我々は,不適切で有害なメッセージを生み出す可能性のある,センシティブなトピックのセットを定義し,データセットの収集とラベル付けの方法論を記述した。
論文 参考訳(メタデータ) (2021-03-09T10:50:30Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。