論文の概要: EU law and emotion data
- arxiv url: http://arxiv.org/abs/2309.10776v1
- Date: Tue, 19 Sep 2023 17:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 13:09:46.378841
- Title: EU law and emotion data
- Title(参考訳): EU法と感情データ
- Authors: Andreas Hauselmann, Alan M. Sears, Lex Zard and Eduard
Fosch-Villaronga
- Abstract要約: 条文は、EUの法的枠組みにおける感情データ処理に関する法的意味と課題に光を当てている。
本稿では、感情コンピューティングに対する様々なアプローチのニュアンスと、特殊データの処理との関連について論じる。
我々は、感情データの処理が関係する個人にもたらす害を含む、いくつかの結果を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article sheds light on legal implications and challenges surrounding
emotion data processing within the EU's legal framework. Despite the sensitive
nature of emotion data, the GDPR does not categorize it as special data,
resulting in a lack of comprehensive protection. The article also discusses the
nuances of different approaches to affective computing and their relevance to
the processing of special data under the GDPR. Moreover, it points to potential
tensions with data protection principles, such as fairness and accuracy. Our
article also highlights some of the consequences, including harm, that
processing of emotion data may have for individuals concerned. Additionally, we
discuss how the AI Act proposal intends to regulate affective computing.
Finally, the article outlines the new obligations and transparency requirements
introduced by the DSA for online platforms utilizing emotion data. Our article
aims at raising awareness among the affective computing community about the
applicable legal requirements when developing AC systems intended for the EU
market, or when working with study participants located in the EU. We also
stress the importance of protecting the fundamental rights of individuals even
when the law struggles to keep up with technological developments that capture
sensitive emotion data.
- Abstract(参考訳): この記事では、EUの法的枠組みにおける感情データ処理に関する法的意味と課題について説明する。
感情データに敏感な性質があるにもかかわらず、GDPRはそれを特別なデータとして分類していないため、包括的な保護が欠如している。
この記事では、感情コンピューティングに対する様々なアプローチのニュアンスと、GDPRの下での特殊データの処理との関連についても論じる。
さらに、公平性や正確性など、データ保護原則による潜在的な緊張関係も指摘する。
私たちの記事では、感情データの処理が個人に与える影響など、いくつかの結果も強調しています。
さらに、AI法の提案が情緒的コンピューティングを規制する意図について論じる。
最後に,感情データを活用したオンラインプラットフォームに対して,dsaが導入した新たな義務と透明性要件について概説する。
本稿は、EU市場向けのACシステムを開発する場合や、EU内の研究参加者と連携する場合の法的要件について、情緒的コンピューティングコミュニティの意識を高めることを目的としている。
我々はまた、法が機密性のある感情データを取得する技術開発に追随している場合でも、個人の基本的権利を保護することの重要性を強調します。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Navigating the United States Legislative Landscape on Voice Privacy: Existing Laws, Proposed Bills, Protection for Children, and Synthetic Data for AI [28.82435149220576]
本稿では,米国議会におけるプライバシ法の現状について述べる。
これは、音声データが法律の定義の一部としてどう扱われるかを概説する。
また、子供のプライバシー保護の強化も検討している。
論文 参考訳(メタデータ) (2024-07-29T03:43:16Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - A Critical Take on Privacy in a Datafied Society [0.0]
私は、プライバシー擁護者が提示するオンラインのプライバシーと慣用性の欠如について、いくつかの側面を分析します。
データフィケーションが人間の行動に与える影響、オンラインプライバシの基盤における市場志向の前提、そして新たな適応戦略について論じる。
潜在的な問題となる未来を垣間見るために、EU、英国、および中国のジェネレーティブAIポリシーに関するプライバシー関連の側面に関する議論が提供されている。
論文 参考訳(メタデータ) (2023-08-03T11:45:18Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness
under the DMA, the GDPR, and beyond [2.608935407927351]
我々は、DMAと関連するEUの行動が4つの重要な領域にわたるAIモデルとその基盤データに与える影響を分析する。
我々は、CJEU法則に基づいて、従来の非差別法と競争法の両方において、非差別の概念のコヒーレントな解釈を見いだせるかを示す。
論文 参考訳(メタデータ) (2022-12-09T17:29:19Z) - Data Protection Impact Assessment for the Corona App [0.0]
SARS-CoV-2は2020年初頭からヨーロッパで普及し始めており、パンデミックとの戦いや封じ込めに関する技術的な解決策が強く求められている。
議論の中心には、連絡先追跡アプリに関する技術的な解決策が強く求められている。
EUの一般日時保護規則(DPIA)は、データ保護アセスメントを実施するために管理者を必要としている。
我々は,最も「プライバシフレンドリー」と考えられる3つの接触追跡アプリデザインを徹底的に検証する科学的DPIAを提案する。
論文 参考訳(メタデータ) (2021-01-18T19:23:30Z) - Second layer data governance for permissioned blockchains: the privacy
management challenge [58.720142291102135]
新型コロナウイルス(COVID-19)やエボラウイルス(エボラ出血熱)のようなパンデミックの状況では、医療データを共有することに関連する行動は、大規模な感染を避け、死亡者を減らすために重要である。
この意味において、許可されたブロックチェーン技術は、スマートコントラクトが管理する不変で統一された分散データベースを通じて、データのオーナシップ、透明性、セキュリティを提供する権利をユーザに与えるために登場します。
論文 参考訳(メタデータ) (2020-10-22T13:19:38Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。