論文の概要: Strengthening the EU AI Act: Defining Key Terms on AI Manipulation
- arxiv url: http://arxiv.org/abs/2308.16364v1
- Date: Wed, 30 Aug 2023 23:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 18:20:57.748499
- Title: Strengthening the EU AI Act: Defining Key Terms on AI Manipulation
- Title(参考訳): EUのAI法を強化する - AI操作に関する重要な用語の定義
- Authors: Matija Franklin, Philip Moreira Tomei, Rebecca Gorman
- Abstract要約: 欧州連合の人工知能法は、AIの操作的かつ有害な使用を規制することを目的としている。
本論文は,法の概念的明確性と施行性を改善するための技術的勧告を提供する。
全体として、EU AI法における曖昧な概念の定義を強化し、有害なAI操作の厳格な適用性を高める。
- 参考スコア(独自算出の注目度): 6.896797484250303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union's Artificial Intelligence Act aims to regulate
manipulative and harmful uses of AI, but lacks precise definitions for key
concepts. This paper provides technical recommendations to improve the Act's
conceptual clarity and enforceability. We review psychological models to define
"personality traits," arguing the Act should protect full "psychometric
profiles." We urge expanding "behavior" to include "preferences" since
preferences causally influence and are influenced by behavior. Clear
definitions are provided for "subliminal," "manipulative," and "deceptive"
techniques, considering incentives, intent, and covertness. We distinguish
"exploiting individuals" from "exploiting groups," emphasising different policy
needs. An "informed decision" is defined by four facets: comprehension,
accurate information, no manipulation, and understanding AI's influence. We
caution the Act's therapeutic use exemption given the lack of regulation of
digital therapeutics by the EMA. Overall, the recommendations strengthen
definitions of vague concepts in the EU AI Act, enhancing precise applicability
to regulate harmful AI manipulation.
- Abstract(参考訳): 欧州連合の人工知能法は、AIの操作的かつ有害な使用を規制することを目的としているが、重要な概念の正確な定義は欠如している。
本論文は,法の概念的明確性と施行性を改善するための技術的勧告を提供する。
我々は「個人性特性」を定義する心理モデルについて検討し、この行為は完全な「心理的プロファイル」を保護するべきであると主張した。
嗜好が因果的に影響し行動に影響されるので,「行動」を拡大して「行動」を含めることを推奨する。
明確な定義は、インセンティブ、意図、隠蔽性を考慮し、"サブリミナル"、"マニピュラティブ"、"deceptive"技術に対して提供される。
我々は,「爆発的個人」と「爆発的集団」を区別し,異なる政策ニーズを強調する。
インフォームド決定」は、理解、正確な情報、操作なし、AIの影響を理解する4つの側面によって定義される。
我々は、EMAによるデジタル治療の規制の欠如を踏まえて、この法律による治療的使用免除を注意する。
全体として、EU AI法における曖昧な概念の定義を強化し、有害なAI操作の厳格な適用性を高める。
関連論文リスト
- A.I. go by many names: towards a sociotechnical definition of artificial intelligence [0.0]
人工知能(AI)の定義は永続的な課題であり、技術的曖昧さと様々な解釈に悩まされることが多い。
このエッセイは、研究に明快さを必要とする研究者にとって不可欠である、AIの社会技術的定義を論証するものである。
論文 参考訳(メタデータ) (2024-10-17T11:25:50Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Reasons that Agents Act: Intention and Instrumental Goals [24.607124467778036]
AIエージェントに適用可能な、普遍的に受け入れられる意図の理論は存在しない。
我々は,エージェントが決定を下す理由に関して,エージェントが行動する意図を運用する。
我々の定義は、意図という直感的な概念を捉え、過去の作業によって設定されたデシダラタを満足させる。
論文 参考訳(メタデータ) (2024-02-11T14:39:40Z) - Regulating AI: Applying insights from behavioural economics and
psychology to the application of article 5 of the EU AI Act [4.424959074229723]
欧州連合の人工知能法第5条は、AIの使用を規制することを意図している。
AIによってどの操作テクニックが呼び出されるかを特定できないため、潜在的に重大な損害を被る可能性がある。
本稿では、AIがこれらの技術をどのように呼び出すかを示す。
論文 参考訳(メタデータ) (2023-07-24T08:42:52Z) - Human Control: Definitions and Algorithms [11.536162323162099]
閉鎖命令性は, 適切な停止動作, 人間の自律性維持, ユーザの危害の回避を示唆することを示す。
また,非閉塞性と閉鎖アライメントの関連概念,従来提案されていた3つの人体制御アルゴリズム,および1つの新しいアルゴリズムを分析した。
論文 参考訳(メタデータ) (2023-05-31T13:53:02Z) - Characterizing Manipulation from AI Systems [7.344068411174193]
我々は、他の分野からの操作に関する文献の上に構築し、操作の可能な概念の空間を特徴づける。
本稿では,特徴量に基づく操作の定義を提案する。
第3に,不正や強制など,操作と関連する概念の関連性について論じる。
論文 参考訳(メタデータ) (2023-03-16T15:19:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。