論文の概要: DeMod: A Holistic Tool with Explainable Detection and Personalized Modification for Toxicity Censorship
- arxiv url: http://arxiv.org/abs/2411.01844v1
- Date: Mon, 04 Nov 2024 06:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:46:37.299810
- Title: DeMod: A Holistic Tool with Explainable Detection and Personalized Modification for Toxicity Censorship
- Title(参考訳): DeMod:Toxicity Censorshipのための説明可能な検出とパーソナライズされた修正機能を備えたホロスティックツール
- Authors: Yaqiong Li, Peng Zhang, Hansu Gu, Tun Lu, Siyuan Qiao, Yubo Shu, Yiyang Shao, Ning Gu,
- Abstract要約: 本研究は、毒性検閲における人々の多様なニーズを調査し、それに応じて、ChatGPTベースの検閲ツールであるDeModを構築した。
DeModは説明可能な検出機能とパーソナライズされた修正機能を備えており、詳細な検出結果、詳細な説明、パーソナライズされた修正提案を提供する。
結果は、機能の豊かさ、検閲の正確さ、使いやすさなど、DeModの複数の強みを示唆している。
- 参考スコア(独自算出の注目度): 16.55929590079875
- License:
- Abstract: Although there have been automated approaches and tools supporting toxicity censorship for social posts, most of them focus on detection. Toxicity censorship is a complex process, wherein detection is just an initial task and a user can have further needs such as rationale understanding and content modification. For this problem, we conduct a needfinding study to investigate people's diverse needs in toxicity censorship and then build a ChatGPT-based censorship tool named DeMod accordingly. DeMod is equipped with the features of explainable Detection and personalized Modification, providing fine-grained detection results, detailed explanations, and personalized modification suggestions. We also implemented the tool and recruited 35 Weibo users for evaluation. The results suggest DeMod's multiple strengths like the richness of functionality, the accuracy of censorship, and ease of use. Based on the findings, we further propose several insights into the design of content censorship systems.
- Abstract(参考訳): ソーシャルポストの毒性検閲を支援する自動化されたアプローチやツールがあるが、そのほとんどは検出に焦点を当てている。
毒性検閲は複雑なプロセスであり、検知は単なる初期タスクであり、ユーザーは合理的な理解やコンテンツ修正といったさらなるニーズを持つことができる。
そこで我々は,毒性検閲における人々の多様なニーズを調査し,それに応じてChatGPTベースの検閲ツールDeModを構築した。
DeModは説明可能な検出機能とパーソナライズされた修正機能を備えており、詳細な検出結果、詳細な説明、パーソナライズされた修正提案を提供する。
また,ツールを実装し,評価のために35名のWeiboユーザを募集した。
結果は、機能の豊かさ、検閲の正確さ、使いやすさなど、DeModの複数の強みを示唆している。
そこで本研究では,コンテンツ検閲システムの設計に関するいくつかの知見を新たに提案する。
関連論文リスト
- Understanding Routing-Induced Censorship Changes Globally [5.79183660559872]
検閲結果の不整合の原因はEqual-cost Multi-path(ECMP)ルーティングの程度である。
我々は、ECMPルーティングが、プロトコル、検閲機構、および17か国で観察された検閲を著しく変更することを発見した。
我々の研究は、将来の研究を改善し、矛盾を減らし、再現性を高める方法を示している。
論文 参考訳(メタデータ) (2024-06-27T16:21:31Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - Depression detection in social media posts using affective and social
norm features [84.12658971655253]
ソーシャルメディア投稿からの抑うつ検出のための奥深いアーキテクチャを提案する。
我々は、後期融合方式を用いて、ポストとワードの敬称と道徳的特徴をアーキテクチャに組み込んだ。
提案された機能を含めると、両方の設定で最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-03-24T21:26:27Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Multilingual Content Moderation: A Case Study on Reddit [23.949429463013796]
Redditのコメント18万件の多言語データセットを導入し,コンテンツモデレーションの課題について検討する。
我々は、基礎となる課題を強調し、関連する研究課題を提案するために、広範な実験分析を行う。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
論文 参考訳(メタデータ) (2023-02-19T16:36:33Z) - Augmenting Rule-based DNS Censorship Detection at Scale with Machine
Learning [38.00013408742201]
ドメイン名システム(DNS)の検閲は、異なる国で使用される重要なメカニズムである。
本稿では,機械学習(ML)モデルが検出プロセスの合理化にどのように役立つかを検討する。
検閲されていないインスタンスのみに基づいてトレーニングされた教師なしモデルは、既存のプローブが見逃した新しいインスタンスと検閲のバリエーションを特定することができる。
論文 参考訳(メタデータ) (2023-02-03T23:36:30Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - How We Express Ourselves Freely: Censorship, Self-censorship, and
Anti-censorship on a Chinese Social Media [4.408128846525362]
我々は検閲と自己検閲の指標を特定し、影響要因を見つけ、それらの関係を測定するための調停モデルを構築した。
これらの知見に基づき、民主的なソーシャルメディアデザインと将来の検閲研究の意義について論じる。
論文 参考訳(メタデータ) (2022-11-24T18:28:16Z) - On the Social and Technical Challenges of Web Search Autosuggestion
Moderation [118.47867428272878]
自動提案は通常、検索ログと文書表現のコーパスに基づいてトレーニングされた機械学習(ML)システムによって生成される。
現在の検索エンジンは、このような問題のある提案を抑えるのに、ますます熟練している。
問題のある提案のいくつかの側面、パイプラインに沿った困難な問題、そしてWeb検索を超えたアプリケーションの増加になぜ私たちの議論が適用されるのかについて論じる。
論文 参考訳(メタデータ) (2020-07-09T19:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。