論文の概要: Identifying Constructive Conflict in Online Discussions through Controversial yet Toxicity Resilient Posts
- arxiv url: http://arxiv.org/abs/2509.18303v1
- Date: Mon, 22 Sep 2025 18:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.521323
- Title: Identifying Constructive Conflict in Online Discussions through Controversial yet Toxicity Resilient Posts
- Title(参考訳): 論争的かつ有害な投稿によるオンライン討論における構成的矛盾の特定
- Authors: Ozgur Can Seckin, Bao Tran Truong, Alessandro Flammini, Filippo Menczer,
- Abstract要約: 我々は、議論の的となり、挑戦的な対話と有害なレジリエンスを識別し、敬意を込めた会話を捉える。
また、政治的ポストはしばしば議論の余地があり、より有毒な反応を惹きつける傾向があることもわかりました。
これらの知見は、建設的な政治的議論を促進するためにポストのトーンをフレーミングする可能性を示唆している。
- 参考スコア(独自算出の注目度): 41.130462443875736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bridging content that brings together individuals with opposing viewpoints on social media remains elusive, overshadowed by echo chambers and toxic exchanges. We propose that algorithmic curation could surface such content by considering constructive conflicts as a foundational criterion. We operationalize this criterion through controversiality to identify challenging dialogues and toxicity resilience to capture respectful conversations. We develop high-accuracy models to capture these dimensions. Analyses based on these models demonstrate that assessing resilience to toxic responses is not the same as identifying low-toxicity posts. We also find that political posts are often controversial and tend to attract more toxic responses. However, some posts, even the political ones, are resilient to toxicity despite being highly controversial, potentially sparking civil engagement. Toxicity resilient posts tend to use politeness cues, such as showing gratitude and hedging. These findings suggest the potential for framing the tone of posts to encourage constructive political discussions.
- Abstract(参考訳): ソーシャルメディア上で反対の視点を持つ個人を束ねるコンテンツは、エコー室や有毒な交換によって覆い隠されている。
構築的矛盾を基礎的基準として考慮し,アルゴリズムによるキュレーションによってその内容が明らかになる可能性が示唆された。
我々は、この基準を議論を通じて運用し、挑戦的な対話と有害なレジリエンスを特定し、敬意を込めた会話を捉えます。
我々はこれらの次元を捉えるための高精度なモデルを開発する。
これらのモデルに基づく分析は、毒性反応に対するレジリエンスを評価することは、低毒性のポストを特定するのと同じではないことを示した。
また、政治的ポストはしばしば議論の余地があり、より有毒な反応を惹きつける傾向があることもわかりました。
しかし、一部のポストは、政治的記事でさえ、非常に議論の的になっているにもかかわらず毒性に耐性があり、市民の関与を引き起こしている可能性がある。
毒性の強いポストは、感謝やヘッジなどの丁寧な手段を使う傾向がある。
これらの知見は、建設的な政治的議論を促進するためにポストのトーンをフレーミングする可能性を示唆している。
関連論文リスト
- Toxicity Begets Toxicity: Unraveling Conversational Chains in Political Podcasts [5.573483199335299]
この研究は、政治ポッドキャストのテキストのデータセットをキュレートし、会話の構造に焦点をあてて分析することで、このギャップを埋めようとしている。
具体的には,これらの対話の中で,有害な言語が会話の交互にエスカレートする有機パターンに光を当てることによって,有害性がどのように表面化し,反応の順序によって強化されるかを検討する。
論文 参考訳(メタデータ) (2025-01-22T04:58:50Z) - Toxic behavior silences online political conversations [0.0]
個人は有害な行動に晒されているため、少数派の意見を公然と表現することを控える可能性があるという仮説を考察する。
隠れマルコフモデルを用いて、毒性による沈黙と一致した潜伏状態を特定する。
本研究は、オンライン政治熟考の複雑さを考察し、自己検閲のダイナミクスを考えることの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-07T20:39:20Z) - Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically Polarized Posts on Twitter [5.161088104035108]
個人レベルでの毒性と,Twitter/X上でのトピックレベルに寄与するパーシスタンスと感情分極が果たす役割について検討する。
43,151人のTwitter/Xユーザーから8960万のツイートを収集した後、パーティショニングを含むいくつかのアカウントレベルの特徴が、ユーザーが有害コンテンツを投稿する頻度を予測するかを決定する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。