論文の概要: Response by the Montreal AI Ethics Institute to the Santa Clara
Principles on Transparency and Accountability in Online Content Moderation
- arxiv url: http://arxiv.org/abs/2007.00700v1
- Date: Wed, 1 Jul 2020 18:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 23:02:16.735463
- Title: Response by the Montreal AI Ethics Institute to the Santa Clara
Principles on Transparency and Accountability in Online Content Moderation
- Title(参考訳): オンラインコンテンツモデレーションにおける透明性と説明責任に関するサンタクララ原則に対するモントリオールAI倫理研究所の対応
- Authors: Marianna Bergamaschi Ganapini (1 and 2), Camylle Lanteigne (1 and 3),
Abhishek Gupta (1 and 4) ((1) Montreal AI Ethics Institute, (2) Union
College, (3) McGill University, (4) Microsoft)
- Abstract要約: 2020年4月、EFF(Electronic Frontier Foundation)はサンタクララの透明性と説明責任に関する原則(SCP)の拡大と改善についてコメントを求めた。
モントリオールAI倫理研究所(MAIEI)は、AI倫理コミュニティのスタッフとワークショップのコントリビューションによる洞察と分析に基づく一連のレコメンデーションを起草した。
MAIEIはその提出書の中で、SCPに対して12の包括的な勧告を提供している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In April 2020, the Electronic Frontier Foundation (EFF) publicly called for
comments on expanding and improving the Santa Clara Principles on Transparency
and Accountability (SCP), originally published in May 2018. The Montreal AI
Ethics Institute (MAIEI) responded to this call by drafting a set of
recommendations based on insights and analysis by the MAIEI staff and
supplemented by workshop contributions from the AI Ethics community convened
during two online public consultation workshops.
In its submission, MAIEI provides 12 overarching recommendations for the SCP,
these include: 1) ensure there is more diversity in the content moderation
process; 2) increase transparency into how platforms guide content-ranking; 3)
disclose anonymized data on the training and/or cultural background of the
content moderators for a platform; 4) tailor content moderation tools for
specific issues; 5) draft specific guidelines for messaging applications with
regards to data protection in content moderation; 6) take into account cultural
differences relevant to what constitutes acceptable behavior online; 7) ensure
platforms are transparent in regards to political advertising; 8) ensure
greater transparency into the user-generated flagging/reporting systems
deployed by a platform; 9) clarify if user content is flagged or reported
through an automated system; 10) provide more data on the types of content
removed from platforms; 11) provide clear guidelines on the appeal process, as
well as data on prior appeals; 12) create a system for periodically revisiting
the SCP so it reflects various technological advancements, modifications in law
and policy, as well as changing trends or movements in content moderation.
- Abstract(参考訳): 2020年4月、electronic frontier foundation(eff)は、2018年5月に発表された透明性と説明責任に関するサンタクララ原則(scp)の拡張と改善に関するコメントを公に求めた。
モントリオールAI倫理研究所(MAIEI)は、MAIEIスタッフの洞察と分析に基づいて一連のレコメンデーションを起草し、2つのオンライン公開コンサルティングワークショップで開かれたAI倫理コミュニティからのワークショップのコントリビューションによって補完した。
MAIEIはその提出書で、以下を含む12のSCPの包括的な勧告を提供している。
1) コンテンツモデレーションのプロセスにもっと多様性があることを保証する。
2) プラットフォームがコンテンツランキングをガイドする方法の透明性を高めること。
3) プラットフォーム用コンテンツモデレーターの訓練及び/又は文化背景に関する匿名データ開示
4) 特定の問題に適した内容調整ツール
5) コンテンツモデレーションにおけるデータ保護に関するメッセージングアプリケーションの具体的なガイドラインの草案
6) オンラインで許容される行動を構成するものに関する文化的相違を考慮する。
7) 政治広告に関してプラットフォームが透明であることを保証すること。
8) プラットフォームによってデプロイされたユーザ生成のフラグ付け/レポートシステムに対する透明性の確保。
9) ユーザコンテンツが自動システムを介してフラグ付けされているか,又は報告されているかを明らかにすること。
10) プラットフォームから削除されたコンテンツのタイプに関するさらなるデータの提供。
11) 上訴手続に関する明確なガイドライン及び先行上訴に関するデータを提供する。
12) SCPを定期的に見直して、様々な技術的進歩、法律及び政策の変更、およびコンテンツモデレーションの傾向や動きを反映させるシステムを作成する。
関連論文リスト
- Automated Transparency: A Legal and Empirical Analysis of the Digital Services Act Transparency Database [6.070078201123852]
2022年11月1日、デジタルサービス法(DSA)が採択された。
DSAは、オンラインプラットフォームがコンテンツモデレーションの決定を報告する必要性を強調している(理由のステートメント' - SoRs)。
SoRは現在、2023年9月に欧州委員会によってローンチされたDSA Transparency Databaseで利用可能である。
本研究の目的は,透明性データベースがDSAの透明性の約束を果たすのに役立つかどうかを理解することである。
論文 参考訳(メタデータ) (2024-04-03T17:51:20Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Content Moderation and the Formation of Online Communities: A
Theoretical Framework [7.900694093691988]
オンラインコミュニティにおけるコンテンツモデレーションポリシーの影響について検討する。
まず,安定なコミュニティを創り,維持するためのモデレーション政策の自然クラスの有効性を特徴付ける。
論文 参考訳(メタデータ) (2023-10-16T16:49:44Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - SoK: Content Moderation for End-to-End Encryption [2.66512000865131]
メッセージングアプリケーションはデフォルトでエンドツーエンド暗号化(E2EE)を有効にし、E2EEデータストレージは一般的になりつつある。
セキュリティとプライバシに関するこれらの重要な進歩は、オンラインサービスに新たなコンテンツモデレーションの課題を生み出します。
我々は、マルウェア、スパム、ヘイトスピーチ、テロリストコンテンツ、エンタープライズポリシーコンプライアンスなど、コンテンツモデレーションの主題の両方で多様である文学を橋渡しする。
論文 参考訳(メタデータ) (2023-03-07T15:26:41Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence [0.0]
モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
論文 参考訳(メタデータ) (2020-06-12T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。