論文の概要: Upgrading the protection of children from manipulative and addictive
strategies in online games: Legal and technical solutions beyond privacy
regulation
- arxiv url: http://arxiv.org/abs/2207.09928v2
- Date: Thu, 1 Sep 2022 10:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:59:25.989391
- Title: Upgrading the protection of children from manipulative and addictive
strategies in online games: Legal and technical solutions beyond privacy
regulation
- Title(参考訳): オンラインゲームにおける子どもの操作的および中毒的戦略からの保護の高度化:プライバシー規制を超えた法的および技術的解決
- Authors: Tommaso Crepax, Jan Tobias Muehlberg
- Abstract要約: 子ども向けオンラインゲームにおける操作的・搾取的戦略について論じる。
我々は、これらのリスクに対処するための規制アプローチのアップグレードを、思考の自由の観点から提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite the increasing awareness from academia, civil society and media to
the issue of child manipulation online, the current EU regulatory system fails
at providing sufficient levels of protection. Given the universality of the
issue, there is a need to combine and further these scattered efforts into a
unitary, multidisciplinary theory of digital manipulation that identifies
causes and effects, systematizes the technical and legal knowledge on
manipulative and addictive tactics, and to find effective regulatory mechanisms
to fill the legislative gaps. In this paper we discuss manipulative and
exploitative strategies in the context of online games for children, suggest a
number of possible reasons for the failure of the applicable regulatory system,
propose an "upgrade" for the regulatory approach to address these risks from
the perspective of freedom of thought, and present and discuss technological
approaches that allow for the development of games that verifiably protect the
privacy and freedoms of players.
- Abstract(参考訳): 学界、市民社会、メディアからネット上での児童操作問題への認識が高まりつつあるにもかかわらず、現在のEU規制システムは十分なレベルの保護を提供していない。
問題の普遍性を考えると、これらの散在した努力を、原因と効果を識別し、マニピュティブおよび中毒的戦術に関する技術的および法的知識を体系化し、立法のギャップを埋めるための効果的な規制機構を見つけるための、統一的で多分野的なデジタル操作理論に統合し、さらに発展させる必要がある。
本稿では,子ども向けオンラインゲームにおけるマニピュレーション的かつ搾取的戦略について論じ,適用可能な規制システムの失敗の原因を示唆し,思考の自由の観点からこれらのリスクに対処するための規制アプローチの「アップグレード」を提案し,プレイヤーのプライバシーと自由を事実上保護するゲームの開発を可能にする技術的アプローチを提示し,議論する。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Regulating Chatbot Output via Inter-Informational Competition [8.168523242105763]
本稿では、AI関連コンテンツリスクとそれに対応する規制提案を再評価するためのヤードスティックを開発する。
情報市場における情報ソース間の十分な競争は、生成的AI技術によって引き起こされるコンテンツリスクを十分に軽減し、解決することができる、と同社は主張する。
論文 参考訳(メタデータ) (2024-03-17T00:11:15Z) - SoK: Technical Implementation and Human Impact of Internet Privacy
Regulations [2.797211052758564]
我々は、世界中のインターネットプライバシとデータ保護に関する一連の規制を分析します。
我々は、これらの法律によって与えられた権利と義務の分類を開発する。
次に、この分類を利用して、270の技術的研究論文を体系化します。
論文 参考訳(メタデータ) (2023-12-24T01:48:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Beyond Ads: Sequential Decision-Making Algorithms in Law and Public
Policy [2.762239258559568]
法と公共政策にシーケンシャルな意思決定アルゴリズムを採用するという約束と課題について検討する。
我々の主なテーマは、法律と公共政策が、機械学習コミュニティがまだ対応していない、異なる方法論上の課題を提起することです。
規制とガバナンスにおけるシーケンシャルな意思決定アルゴリズムの幅広い応用について論じる。
論文 参考訳(メタデータ) (2021-12-13T17:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。