論文の概要: Regulating AI: Applying insights from behavioural economics and
psychology to the application of article 5 of the EU AI Act
- arxiv url: http://arxiv.org/abs/2308.02041v2
- Date: Sun, 25 Feb 2024 19:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 19:27:57.362291
- Title: Regulating AI: Applying insights from behavioural economics and
psychology to the application of article 5 of the EU AI Act
- Title(参考訳): AIの規制: 行動経済学と心理学からの洞察をEU AI法第5条の適用に適用すること
- Authors: Huixin Zhong, Eamonn O'Neill, Janina A. Hoffmann
- Abstract要約: 欧州連合の人工知能法第5条は、AIの使用を規制することを意図している。
AIによってどの操作テクニックが呼び出されるかを特定できないため、潜在的に重大な損害を被る可能性がある。
本稿では、AIがこれらの技術をどのように呼び出すかを示す。
- 参考スコア(独自算出の注目度): 4.424959074229723
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Article 5 of the European Union's Artificial Intelligence Act is intended to
regulate AI use to prevent potentially harmful consequences. Nevertheless,
applying this legislation practically is likely to be challenging because of
ambiguously used terminologies and because it fails to specify which
manipulation techniques may be invoked by AI, potentially leading to
significant harm. This paper aims to bridge this gap by defining key terms and
demonstrating how AI may invoke these techniques, drawing from insights in
psychology and behavioural economics. First, this paper provides definitions of
the terms "subliminal techniques", "manipulative techniques" and "deceptive
techniques". Secondly, we identified from the literature in cognitive
psychology and behavioural economics three subliminal and five manipulative
techniques and exemplify how AI might implement these techniques to manipulate
users in real-world case scenarios. These illustrations may serve as a
practical guide for stakeholders to detect cases of AI manipulation and
consequently devise preventive measures. Article 5 has also been criticised for
offering inadequate protection. We critically assess the protection offered by
Article 5, proposing specific revisions to paragraph 1, points (a) and (b) of
Article 5 to increase its protective effectiveness.
- Abstract(参考訳): 欧州連合の人工知能法第5条は、潜在的に有害な結果を防ぐためにAIの使用を規制することを目的としている。
それでも、この法律を実際に適用することは、あいまいに使用される用語と、aiによって呼び出される操作テクニックを特定できず、潜在的に重大な危害をもたらす可能性があるため、困難である可能性が高い。
本稿では,このギャップを埋めるために,重要な用語を定義し,aiがこれらの手法をどのように呼び出すのかを実証し,心理学や行動経済学の洞察を引き出す。
まず,「サブリミナル・テクニック」,「マニピュティブ・テクニック」,「認知的テクニック」という用語を定義した。
次に,認知心理学と行動経済学の文献から3つのサブリミナル手法と5つのマニピュレーション手法を特定し,現実世界のシナリオにおいて,aiがユーザを操作するためにこれらの手法をどのように実装するかを例示する。
これらの図は、ステークホルダーがAI操作のケースを検出し、結果として予防措置を考案するための実践的なガイドとして機能するかもしれない。
第5条は不適切な保護を提供していると批判されている。
第五条の規定による保護を批判的に評価し,第一項の点に対する特定の改正を提案する。
(a)及び
b) 保護効果を高めるため第五条の規定
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - The opaque law of artificial intelligence [0.0]
生成型AI(Chat-GPT)の最も優れたNLPモデルの一つのパフォーマンスを評価し、それが現在どこまで進んでいるかを確認する。
問題の分析は、イタリアの古典法に関するコメントで支持される。
論文 参考訳(メタデータ) (2023-10-19T23:02:46Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Strengthening the EU AI Act: Defining Key Terms on AI Manipulation [6.896797484250303]
欧州連合の人工知能法は、AIの操作的かつ有害な使用を規制することを目的としている。
本論文は,法の概念的明確性と施行性を改善するための技術的勧告を提供する。
全体として、EU AI法における曖昧な概念の定義を強化し、有害なAI操作の厳格な適用性を高める。
論文 参考訳(メタデータ) (2023-08-30T23:42:07Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Expose Uncertainty, Instill Distrust, Avoid Explanations: Towards
Ethical Guidelines for AI [3.0534660670547864]
AI技術を使う人間を助ける最良の方法は、AIアルゴリズムの本質的な限界と問題を認識することだ、と私は主張する。
結果の提示に使用する倫理ガイドラインを3つ提案する。
論文 参考訳(メタデータ) (2021-11-29T14:53:35Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Actionable Principles for Artificial Intelligence Policy: Three Pathways [0.0]
本稿では,AIのための行動原理開発のための新しい枠組みを提案する。
このアプローチは、政策プロセスにおける実践性を高めるための方法論的要素におけるAI倫理原則と家庭の関係を認識している。
論文 参考訳(メタデータ) (2021-02-24T16:57:35Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。