論文の概要: Confronting Abusive Language Online: A Survey from the Ethical and Human
Rights Perspective
- arxiv url: http://arxiv.org/abs/2012.12305v1
- Date: Tue, 22 Dec 2020 19:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:42:46.832654
- Title: Confronting Abusive Language Online: A Survey from the Ethical and Human
Rights Perspective
- Title(参考訳): オンラインの虐待的言語に直面する--倫理的・人権的な視点から
- Authors: Svetlana Kiritchenko, Isar Nejadgholi, Kathleen C. Fraser
- Abstract要約: 我々は,nlpによる自動乱用検出に関する大規模な研究を,倫理的課題に焦点を絞ってレビューする。
我々は、この技術の幅広い社会的影響を調べる必要性を強調している。
我々は、オンライン乱用を検知し対処するための、権利を尊重する社会技術的ソリューションのいくつかの機会を特定した。
- 参考スコア(独自算出の注目度): 4.916009028580767
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The pervasiveness of abusive content on the internet can lead to severe
psychological and physical harm. Significant effort in Natural Language
Processing (NLP) research has been devoted to addressing this problem through
abusive content detection and related sub-areas, such as the detection of hate
speech, toxicity, cyberbullying, etc. Although current technologies achieve
high classification performance in research studies, it has been observed that
the real-life application of this technology can cause unintended harms, such
as the silencing of under-represented groups. We review a large body of NLP
research on automatic abuse detection with a new focus on ethical challenges,
organized around eight established ethical principles: privacy, accountability,
safety and security, transparency and explainability, fairness and
non-discrimination, human control of technology, professional responsibility,
and promotion of human values. In many cases, these principles relate not only
to situational ethical codes, which may be context-dependent, but are in fact
connected to universal human rights, such as the right to privacy, freedom from
discrimination, and freedom of expression. We highlight the need to examine the
broad social impacts of this technology, and to bring ethical and human rights
considerations to every stage of the application life-cycle, from task
formulation and dataset design, to model training and evaluation, to
application deployment. Guided by these principles, we identify several
opportunities for rights-respecting, socio-technical solutions to detect and
confront online abuse, including 'nudging', 'quarantining', value sensitive
design, counter-narratives, style transfer, and AI-driven public education
applications.
- Abstract(参考訳): インターネット上の虐待的なコンテンツが広まると、深刻な心理的・身体的被害につながる可能性がある。
自然言語処理(NLP)研究における重要な取り組みは、ヘイトスピーチの検出、毒性、サイバーいじめなど、乱暴なコンテンツ検出と関連するサブアリーナを通じてこの問題に対処することに集中している。
現在の技術は研究において高い分類性能を達成しているが、この技術の実際の応用は、非表現群のサイレンシングのような意図しない害を引き起こす可能性があることが観察されている。
我々は, プライバシー, 説明責任, 安全と安全, 透明性と説明責任, 公正と非差別, 技術制御, 専門的責任, 人的価値の促進という, 8つの確立した倫理的原則を中心に組織された倫理的課題に焦点をあてた, 自動乱用検出に関する大規模なnlp研究をレビューした。
多くの場合、これらの原則は文脈に依存しているかもしれない状況的倫理規範だけでなく、実際にはプライバシーの権利、差別の自由、表現の自由など、普遍的な人権と結びついている。
我々は、この技術の幅広い社会的影響を検証し、タスクの定式化やデータセットの設計、モデルのトレーニングと評価、アプリケーションデプロイメントまで、アプリケーションライフサイクルのあらゆる段階に倫理的および人権上の考慮をもたらす必要性を強調します。
これらの原則により、我々は、「ナッジ」、「隔離」、価値に敏感なデザイン、反ナラティブ、スタイル移行、AI駆動の公共教育アプリケーションなど、オンライン虐待を検出し、対決する権利を尊重する社会技術ソリューションの機会を特定します。
関連論文リスト
- Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - Responsible and Regulatory Conform Machine Learning for Medicine: A
Survey of Technical Challenges and Solutions [4.325945017291532]
医療機械学習システム構築における技術的課題を責任を持って調査する。
基礎となる技術的課題、対処の可能な方法、それぞれのメリットと欠点について論じる。
論文 参考訳(メタデータ) (2021-07-20T15:03:05Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities [7.485814345656486]
性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
論文 参考訳(メタデータ) (2021-02-03T18:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。