論文の概要: Weapons of Online Harassment: Menacing and Profiling Users via Social Apps
- arxiv url: http://arxiv.org/abs/2511.11718v1
- Date: Wed, 12 Nov 2025 21:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.097685
- Title: Weapons of Online Harassment: Menacing and Profiling Users via Social Apps
- Title(参考訳): オンラインハラスメントの武器:ソーシャルアプリを通じてユーザーを脅かし、プロファイリングする
- Authors: Sanjana Cheerla, Vaibhav Garg, Saikath Bhattacharya, Munindar P. Singh,
- Abstract要約: アプリレビューではしばしばハラスメントが書かれています。
私たちは300万以上のレビューと1,800以上のアプリからなるデータセットを構築しました。
私たちは、ハラスメントを許容する1,395のアプリを特定し、トップ48の開発者に対して、ユーザ報告されたハラスメントが最も高いことを通知しました。
- 参考スコア(独自算出の注目度): 11.031258159143329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Viewing social apps as sociotechnical systems makes clear that they are not mere pieces of technology but mediate human interaction and may unintentionally enable harmful behaviors like online harassment. As more users interact through social apps, instances of harassment increase. We observed that app reviews often describe harassment. Accordingly, we built a dataset of over 3 million reviews and 1,800 apps. We discovered that two forms of harassment are prevalent, Menacing and Profiling. We built a computational model for identifying reviews indicating harassment, achieving high recalls of 90% for Menacing and 85% for Profiling. We analyzed the data further to better understand the terrain of harassment. Surprisingly, abusers most often have female identities. Also, what distinguishes negative from neutral reviews is the greater prevalence of anger, disgust, and fear. Applying our model, we identified 1,395 apps enabling harassment and notified developers of the top 48 with the highest user-reported harassment.
- Abstract(参考訳): ソーシャルアプリを社会技術システムと見なすことは、単にテクノロジーの一部ではなく、人間のインタラクションを仲介することを明確にし、オンラインハラスメントのような有害な行動を意図せず防止する可能性がある。
より多くのユーザーがソーシャルアプリを通じて交流するにつれて、ハラスメントの事例が増えます。
アプリレビューではしばしばハラスメントが書かれています。
そのため、300万以上のレビューと1,800以上のアプリからなるデータセットを構築しました。
ハラスメントは2種類あり、MeracingとProfilingだ。
我々は、ハラスメントを示すレビューを識別する計算モデルを構築し、メンタリングの90%、プロファイリングの85%を高いリコールで達成した。
我々はハラスメントの地形をよりよく理解するために、データをさらに分析した。
驚いたことに、乱用者の多くは女性のアイデンティティを持っている。
また、中立的レビューと否定的レビューとの違いは、怒り、嫌悪、恐怖の頻度が大きくなることである。
私たちのモデルを適用して、ハラスメントを可能にする1,395のアプリを特定し、ユーザ報告されたハラスメントが最も高いトップ48の開発者に通知しました。
関連論文リスト
- "TikTok, Do Your Thing": User Reactions to Social Surveillance in the Public Sphere [5.842448062452283]
「TikTok, Do Your Thing」は、クラウドソーシングを通じて、公共の場で見知らぬ人を識別しようとするバイラルトレンドである。
この傾向は2021年に始まり、ユーザーは概してロマンチックな目的で利用している。
この傾向に対するユーザの反応を理解するために、60のTikTokビデオと1,901のユーザコメントの質的分析を行った。
論文 参考訳(メタデータ) (2025-06-25T23:13:43Z) - OS-Harm: A Benchmark for Measuring Safety of Computer Use Agents [60.78202583483591]
コンピュータ使用エージェントの安全性を計測する新しいベンチマークであるOS-Harmを紹介する。
OS-HarmはOSWorld環境上に構築されており、故意のユーザ誤用、インジェクション攻撃、モデル誤動作の3つのカテゴリでモデルをテストすることを目指している。
我々は、フロンティアモデルに基づいてコンピュータ利用エージェントを評価し、その安全性に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-06-17T17:59:31Z) - Gender Bias and Property Taxes [50.18156030818883]
我々は、10万人以上の不動産税告訴審理記録と2.7年以上の関連音声記録を分析した。
女性のアパレルは、聴聞会で男性アパレルよりも体系的に劣る。
我々の結果は、性別バイアスは、少なくとも部分的には、ABBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
論文 参考訳(メタデータ) (2024-12-17T07:14:23Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Online Harassment of Japanese Celebrities and Influencers [0.0]
有名人(セレブやインフルエンサーなど)は毎日オンラインで嫌がらせを受けている。
オンラインハラスメントは彼らを精神的に妨げ、社会に悪影響を及ぼす。
オンラインハラスメントの被害者、感情的負傷、および犯罪者に対する行動について、日本の著名人を対象に調査を行った。
論文 参考訳(メタデータ) (2022-10-14T07:51:54Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts [19.32095911241636]
本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
論文 参考訳(メタデータ) (2020-09-30T18:12:50Z) - #MeToo on Campus: Studying College Sexual Assault at Scale Using Data
Reported on Social Media [71.74529365205053]
我々は、#トレンドが大学フォロワーのプールに与える影響を分析した。
その結果、これらの#ツイートに埋め込まれたトピックの大部分は、セクシャルハラスメントのストーリーを詳述している。
この傾向といくつかの主要地理的地域に関する公式な報告との間には大きな相関関係がある。
論文 参考訳(メタデータ) (2020-01-16T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。