論文の概要: Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go
- arxiv url: http://arxiv.org/abs/2103.00153v2
- Date: Tue, 6 Jun 2023 16:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:22:45.675245
- Title: Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go
- Title(参考訳): オンラインプラットフォームで有害コンテンツを検出する: 研究が進むべきプラットフォーム
- Authors: Arnav Arora, Preslav Nakov, Momchil Hardalov, Sheikh Muhammad Sarwar,
Vibha Nayak, Yoan Dinkov, Dimitrina Zlatkova, Kyle Dent, Ameya Bhatawdekar,
Guillaume Bouchard, Isabelle Augenstein
- Abstract要約: オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
- 参考スコア(独自算出の注目度): 44.774035806004214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of harmful content on online platforms is a major societal
problem, which comes in many different forms including hate speech, offensive
language, bullying and harassment, misinformation, spam, violence, graphic
content, sexual abuse, self harm, and many other. Online platforms seek to
moderate such content to limit societal harm, to comply with legislation, and
to create a more inclusive environment for their users. Researchers have
developed different methods for automatically detecting harmful content, often
focusing on specific sub-problems or on narrow communities, as what is
considered harmful often depends on the platform and on the context. We argue
that there is currently a dichotomy between what types of harmful content
online platforms seek to curb, and what research efforts there are to
automatically detect such content. We thus survey existing methods as well as
content moderation policies by online platforms in this light and we suggest
directions for future work.
- Abstract(参考訳): オンラインプラットフォーム上で有害なコンテンツの拡散は、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己害など、さまざまな形で発生する大きな社会問題である。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害の制限、法律の遵守、ユーザーのためのより包括的な環境の創出に向け、緩和しようとしている。
研究者は、有害なコンテンツを自動的に検出する様々な方法を開発し、しばしば特定のサブプロブレムや狭いコミュニティに焦点を当てている。
現在、オンラインプラットフォームが抑制しようとしている有害コンテンツの種類と、そのようなコンテンツを自動的に検出するための研究努力との間には、二分法がある、と我々は主張する。
そこで本研究では,オンラインプラットフォームによる既存手法とコンテンツモデレーションポリシーを調査し,今後の課題への方向性を提案する。
関連論文リスト
- Harmful YouTube Video Detection: A Taxonomy of Online Harm and MLLMs as Alternative Annotators [0.0]
本研究は,映像コンテンツ中の害を検知するための計測方法と手法の進歩である。
我々は、ビデオプラットフォーム上でのオンライン被害に対する包括的分類を開発し、それを情報、憎悪、ハラスメント、予測、クリックベイト、性的被害、身体的被害の6つのカテゴリに分類する。
14枚の画像フレーム,1本のサムネイル,テキストメタデータを用いて,19,422本のYouTube動画を分析し,クラウドワーカー(Mturk)とGPT-4-Turboの精度を比較した。
論文 参考訳(メタデータ) (2024-11-06T23:48:30Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - User Attitudes to Content Moderation in Web Search [49.1574468325115]
我々は、Web検索における誤解を招く可能性のあるコンテンツや攻撃的なコンテンツに適用される様々なモデレーションプラクティスに対するサポートレベルについて検討する。
最も支持されている実践は、誤解を招く可能性のあるコンテンツや不快なコンテンツについてユーザーに知らせることであり、最も支持されていないものは、検索結果を完全に削除することである。
より保守的なユーザーやウェブ検索結果に対する信頼度が低いユーザーは、ウェブ検索におけるコンテンツモデレーションに反する傾向にある。
論文 参考訳(メタデータ) (2023-10-05T10:57:15Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - TeamX@DravidianLangTech-ACL2022: A Comparative Analysis for Troll-Based
Meme Classification [21.32190107220764]
ネット上の有害コンテンツは ソーシャルメディアプラットフォーム、政府機関、政策立案者、社会全体の間で 懸念を高めました
有害コンテンツに基づくオンラインコンテンツは、その1つで、挑発的、攻撃的、あるいは威圧的なメッセージを、視聴者を誤解させる意図で投稿する、というものだ。
本研究は,テキスト,ビジュアル,マルチモーダルコンテンツを用いて,トロルに基づくミーム分類の比較分析を行った。
論文 参考訳(メタデータ) (2022-05-09T16:19:28Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - When Curation Becomes Creation: Algorithms, Microcontent, and the
Vanishing Distinction between Platforms and Creators [30.71023908707896]
我々は、コヒーレントな規制の枠組みは、現代のソーシャルメディアの状況に適応しなければならないと論じている。
我々は、いかなるコヒーレントな規制フレームワークも、この現実に適応しなければならないと論じている。
論文 参考訳(メタデータ) (2021-07-01T13:37:05Z) - Preserving Integrity in Online Social Networks [13.347579281117628]
本稿では,オンラインプラットフォームとそのユーザをこのような被害から保護する技術の現状について調査する。
我々は,実践上有用であることが証明され,学術界から注目に値するテクニックを強調した。
論文 参考訳(メタデータ) (2020-09-22T04:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。