論文の概要: The User behind the Abuse: A Position on Ethics and Explainability
- arxiv url: http://arxiv.org/abs/2103.17191v1
- Date: Wed, 31 Mar 2021 16:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:48:01.502771
- Title: The User behind the Abuse: A Position on Ethics and Explainability
- Title(参考訳): 虐待の背後にあるユーザ:倫理と説明可能性に関する立場
- Authors: Pushkar Mishra, Helen Yannakoudakis, Ekaterina Shutova
- Abstract要約: ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
- 参考スコア(独自算出の注目度): 25.791014642037585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abuse on the Internet is an important societal problem of our time. Millions
of Internet users face harassment, racism, personal attacks, and other types of
abuse across various platforms. The psychological effects of abuse on
individuals can be profound and lasting. Consequently, over the past few years,
there has been a substantial research effort towards automated abusive language
detection in the field of NLP. In this position paper, we discuss the role that
modeling of users and online communities plays in abuse detection.
Specifically, we review and analyze the state of the art methods that leverage
user or community information to enhance the understanding and detection of
abusive language. We then explore the ethical challenges of incorporating user
and community information, laying out considerations to guide future research.
Finally, we address the topic of explainability in abusive language detection,
proposing properties that an explainable method should aim to exhibit. We
describe how user and community information can facilitate the realization of
these properties and discuss the effective operationalization of explainability
in view of the properties.
- Abstract(参考訳): インターネットの悪用は、われわれの時代の重要な社会的問題である。
何百万人ものインターネットユーザーが、ハラスメント、人種差別、個人的攻撃などさまざまなプラットフォームで悪用されている。
個人に対する虐待の心理的影響は深く持続する可能性がある。
その結果,近年,NLP分野において,自動乱用言語検出に向けた研究が盛んに行われている。
本稿では,ユーザとオンラインコミュニティのモデリングが悪用検出に果たす役割について考察する。
具体的には,ユーザやコミュニティの情報を活用し,乱用する言語の理解と検出を強化する技術手法の状況をレビューし,分析する。
次に,ユーザ情報とコミュニティ情報を取り入れた倫理的課題について考察し,今後の研究を導くための考察を述べる。
最後に, 乱用言語検出における説明可能性の話題を取り上げ, 説明可能な方法が示すべき特性を提案する。
ユーザとコミュニティの情報がこれらのプロパティの実現をいかに促進できるかを説明し,その特性の観点から説明可能性の効果的な運用について論じる。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - The Unappreciated Role of Intent in Algorithmic Moderation of Social Media Content [2.2618341648062477]
本稿では,コンテンツモデレーションシステムにおける意図の役割について考察する。
本研究は,意識と意図を捉える能力を評価するために,オンライン虐待に対するアート検出モデルとベンチマークトレーニングデータセットの現状をレビューする。
論文 参考訳(メタデータ) (2024-05-17T18:05:13Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - Confronting Abusive Language Online: A Survey from the Ethical and Human
Rights Perspective [4.916009028580767]
我々は,nlpによる自動乱用検出に関する大規模な研究を,倫理的課題に焦点を絞ってレビューする。
我々は、この技術の幅広い社会的影響を調べる必要性を強調している。
我々は、オンライン乱用を検知し対処するための、権利を尊重する社会技術的ソリューションのいくつかの機会を特定した。
論文 参考訳(メタデータ) (2020-12-22T19:27:11Z) - AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts [19.32095911241636]
本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
論文 参考訳(メタデータ) (2020-09-30T18:12:50Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - Joint Modelling of Emotion and Abusive Language Detection [26.18171134454037]
マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-28T14:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。