論文の概要: Putting collective intelligence to the enforcement of the Digital
Services Act
- arxiv url: http://arxiv.org/abs/2305.01959v1
- Date: Wed, 3 May 2023 08:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 15:32:11.817970
- Title: Putting collective intelligence to the enforcement of the Digital
Services Act
- Title(参考訳): デジタルサービス法の施行に集団知能を付与すること
- Authors: Suzanne Vergnolle (LISE)
- Abstract要約: 本報告は、欧州委員会による効率的かつ影響力のある専門家グループの設計を具体的に推奨することに焦点を当てる。
このグループの専門家は、証拠に基づく情報を委員会に直接持ち込むことができる。
その他の累積機構は、DSAの執行の強化にも役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While underlying the many ways to build strong cooperation settings between
regulators and CSOs, this report focuses on making concrete recommendations for
the design of an efficient and influential expert group with the European
Commission. The creation of an expert group finds its roots in article 64 and
recital 137 of the DSA which require the Commission to develop Union expertise
and capabilities. Once established, the experts of this group will be able to
bring evidence-based information directly to the Commission and specific
expertise on the protection of fundamental rights and the safety of users
online. By instituting an expert group, the Commission will not only benefit
from valuable expert knowledge but will also demonstrate its willingness to put
in place an efficient enforcement system based on collective intelligence.
Aside from the establishment of an expert group, other cumulative mechanisms
will also help the DSA's enforcement to thrive. Civil society organisations
should, for instance, consider organising regular crowdsourcing events to
deep-dive and analyse the data published by entities covered by the
transparency obligations. As it has done in the past, the Commission can
sponsor these events and be a direct beneficiary of their results. Another way
for civil society organisations to bring information to the Regulator is by
legal action, including by making complaints to the regulators.
- Abstract(参考訳): この報告書は、規制当局とCSOの間で強力な協力関係を構築するための多くの方法の基礎を成す一方で、欧州委員会による効率的かつ影響力のある専門家グループの設計を具体的に推奨することに焦点を当てている。
専門家グループの創設は、欧州連合の専門知識と能力開発を求めるDSAの第64条と第137条にそのルーツを見出している。
このグループのエキスパートは、エビデンスに基づく情報を委員会に直接届けることができ、基本的な権利の保護とオンラインユーザの安全に関する専門知識が与えられる。
専門家グループを設置することで、委員会は貴重な専門家知識の恩恵を受けるだけでなく、集団知性に基づく効率的な執行システムを構築する意思を示す。
専門家団体の設立とは別に、他の累積的なメカニズムは、DSAの実施の促進にも役立ちます。
民間社会組織は、例えば、透明性義務によってカバーされるエンティティによって公表されたデータを深く理解し分析するために、定期的なクラウドソーシングイベントを組織することを検討すべきである。
過去に行われたように、委員会はこれらのイベントのスポンサーとなり、その結果の直接の受益者となることができる。
市民社会の組織がレギュレータに情報をもたらす別の方法は、規制当局に苦情を申し立てることを含む法的措置である。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Framework for Mapping Organisational Workforce Knowledge Profile in Cyber Security [11.934344823380615]
総合的なサイバーセキュリティの知識プロファイルを構築することは、大きな課題だ。
組織のサイバーセキュリティ知識を評価するための明確な方法論が欠如している。
我々は、組織の知識プロファイルを構築するために、CyBOKを活用するフレームワークを前進させる。
論文 参考訳(メタデータ) (2024-06-05T14:34:37Z) - Recommendations for Government Development and Use of Advanced Automated
Systems to Make Decisions about Individuals [14.957989495850935]
コンペティビリティは、しばしばデュエルプロセスの要素として立憲に要求される。
われわれは、高度な自動意思決定、競争性、法律に関するワークショップを開催した。
論文 参考訳(メタデータ) (2024-03-04T00:03:00Z) - Investigating Algorithm Review Boards for Organizational Responsible
Artificial Intelligence Governance [0.16385815610837165]
社内RAIガバナンスの経験について、組織タイプを越えた17のテクニカルコントリビュータにインタビューした。
アルゴリズムレビュー委員会(ARB)と類似のレビュー委員会について,本研究の最初の詳細な知見を要約した。
以上の結果から,既存の内部規制アプローチとリーダシップ購入との統合が,成功の最も重要な要因であることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T20:53:53Z) - Application of Text Analytics in Public Service Co-Creation: Literature
Review and Research Framework [68.8204255655161]
従来の公共サービスのトップダウン開発に代わるものとして、公共サービスの共創がある。
共同創造は、より優れた公共サービスを作成し、公開価値を達成することを目的として、ステークホルダー間のコラボレーションを促進する。
本研究では,テキストデータにテキスト分析(TA)技術を適用することで,公共サービスの共同作成を支援するための既存の研究について検討する。
論文 参考訳(メタデータ) (2023-05-20T17:34:17Z) - How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers? Part II [0.0]
マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-11T20:54:49Z) - How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers? [0.0]
マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-11T20:49:40Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。