論文の概要: Regulating AI manipulation: Applying Insights from behavioral economics
and psychology to enhance the practicality of the EU AI Act
- arxiv url: http://arxiv.org/abs/2308.02041v1
- Date: Mon, 24 Jul 2023 08:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 02:00:16.282445
- Title: Regulating AI manipulation: Applying Insights from behavioral economics
and psychology to enhance the practicality of the EU AI Act
- Title(参考訳): AI操作の規制:EUAI法の実践性を高めるために行動経済学と心理学からの洞察を適用する
- Authors: Huixin Zhong
- Abstract要約: EUのAI法第5条は、潜在的な有害な結果を防ぐために、AI操作を規制するように設計されている。
本稿では,心理学と行動経済学の知見を統合することにより,用語の明確化と保護効果の向上を図る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The EU AI Act Article 5 is designed to regulate AI manipulation to prevent
potential harmful consequences. However, the practical implementation of this
legislation is challenging due to the ambiguous terminologies and the unclear
presentations of manipulative techniques. Moreover, the Article 5 also suffers
criticize of inadequate protective efficacy. This paper attempts to clarify
terminologies and to enhance the protective efficacy by integrating insights
from psychology and behavioral economics. Firstly, this paper employs cognitive
psychology research to elucidate the term subliminal techniques and its
associated representation. Additionally, this paper extends the study of
heuristics: a set of thinking shortcuts which can be aroused for behavior
changing from behavior economics to the realm of manipulative techniques. The
elucidation and expansion of terminologies not only provide a more accurate
understanding of the legal provision but also enhance its protective efficacy.
Secondly, this paper proposes five classical heuristics and their associated
examples to illustrate how can AI arouse those heuristics to alter users
behavior. The enumeration of heuristics serves as a practical guide for
stakeholders such as AI developers, algorithm auditors, users, and legal
practitioners, enabling them to identify manipulative techniques and implement
countermeasures. Finally, this paper critically evaluates the protective
efficacy of Article 5 for both the general public and vulnerable groups. This
paper argues that the current protective efficacy of Article 5 is insufficient
and thus proposes specific revision suggestions to terms a and b in Article 5
to enhance its protective efficacy. This work contributes to the ongoing
discourse on AI ethics and legal regulations, providing a practical guide for
interpreting and applying the EU AI Act Article 5.
- Abstract(参考訳): EUのAI法第5条は、潜在的な有害な結果を防ぐためにAI操作を規制するように設計されている。
しかし、この法律の実践的実施は、曖昧な用語とマニピュレーティブ・テクニックの不明確さのために困難である。
さらに、第5条は保護効果の不十分を批判している。
本稿では,心理学と行動経済学の知見を統合することにより,用語の明確化と保護効果の向上を図る。
まず, 認知心理学研究を用いて, サブリミナル技法とその関連表現を解明する。
さらに,本論文は,行動経済学からマニピュティブ・テクニックの領域へと変化する行動に刺激を与える一連の思考ショートカットについて,ヒューリスティックスの研究を拡張した。
用語の解明と拡張は、法的条項をより正確に理解するだけでなく、その保護効果を高める。
第2に,従来の5つのヒューリスティックとその関連事例を提案し,AIがそれらのヒューリスティックをいかにしてユーザ行動を変えるかを説明する。
ヒューリスティックスの列挙は、AI開発者、アルゴリズム監査官、ユーザ、法的実践者といったステークホルダーのための実践的なガイドとして機能し、マニピュレータ技術を特定し、対策を実施することができる。
最後に,一般市民および脆弱なグループに対する第5条の保護効果を批判的に評価する。
本稿では,第5条の現行の保護効果が不十分であるとして,第5条第a項,第b項の具体的改訂案を提案する。
この研究は、現在進行中のAI倫理と法規制に関する議論に寄与し、EUのAI法第5条を解釈し適用するための実践的なガイドを提供する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - The opaque law of artificial intelligence [0.0]
生成型AI(Chat-GPT)の最も優れたNLPモデルの一つのパフォーマンスを評価し、それが現在どこまで進んでいるかを確認する。
問題の分析は、イタリアの古典法に関するコメントで支持される。
論文 参考訳(メタデータ) (2023-10-19T23:02:46Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Strengthening the EU AI Act: Defining Key Terms on AI Manipulation [6.896797484250303]
欧州連合の人工知能法は、AIの操作的かつ有害な使用を規制することを目的としている。
本論文は,法の概念的明確性と施行性を改善するための技術的勧告を提供する。
全体として、EU AI法における曖昧な概念の定義を強化し、有害なAI操作の厳格な適用性を高める。
論文 参考訳(メタデータ) (2023-08-30T23:42:07Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Expose Uncertainty, Instill Distrust, Avoid Explanations: Towards
Ethical Guidelines for AI [3.0534660670547864]
AI技術を使う人間を助ける最良の方法は、AIアルゴリズムの本質的な限界と問題を認識することだ、と私は主張する。
結果の提示に使用する倫理ガイドラインを3つ提案する。
論文 参考訳(メタデータ) (2021-11-29T14:53:35Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Actionable Principles for Artificial Intelligence Policy: Three Pathways [0.0]
本稿では,AIのための行動原理開発のための新しい枠組みを提案する。
このアプローチは、政策プロセスにおける実践性を高めるための方法論的要素におけるAI倫理原則と家庭の関係を認識している。
論文 参考訳(メタデータ) (2021-02-24T16:57:35Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。