論文の概要: Beware! The AI Act Can Also Apply to Your AI Research Practices
- arxiv url: http://arxiv.org/abs/2506.03218v1
- Date: Tue, 03 Jun 2025 08:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:13.957559
- Title: Beware! The AI Act Can Also Apply to Your AI Research Practices
- Title(参考訳): AI法はAI研究の実践にも適用できる
- Authors: Alina Wernick, Kristof Meding,
- Abstract要約: EUはデジタル時代を規制する先駆者の一人となっている。
AI法は、リスクベースのアプローチにより、AIシステムのプロバイダに対するさまざまな義務を規定している。
このポジションペーパーは、事実、AI法の義務は、AIコミュニティが認識しているよりも多くのケースに適用できると主張している。
- 参考スコア(独自算出の注目度): 2.532202013576547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The EU has become one of the vanguards in regulating the digital age. A particularly important regulation in the Artificial Intelligence (AI) domain is the EU AI Act, which entered into force in 2024. The AI Act specifies -- due to a risk-based approach -- various obligations for providers of AI systems. These obligations, for example, include a cascade of documentation and compliance measures, which represent a potential obstacle to science. But do these obligations also apply to AI researchers? This position paper argues that, indeed, the AI Act's obligations could apply in many more cases than the AI community is aware of. In our analysis of the AI Act and its applicability, we contribute the following: 1.) We give a high-level introduction to the AI Act aimed at non-legal AI research scientists. 2.) We explain with everyday research examples why the AI Act applies to research. 3.) We analyse the exceptions of the AI Act's applicability and state that especially scientific research exceptions fail to account for current AI research practices. 4.) We propose changes to the AI Act to provide more legal certainty for AI researchers and give two recommendations for AI researchers to reduce the risk of not complying with the AI Act. We see our paper as a starting point for a discussion between policymakers, legal scholars, and AI researchers to avoid unintended side effects of the AI Act on research.
- Abstract(参考訳): EUはデジタル時代を規制する先駆者の一人となっている。
人工知能(AI)分野における特に重要な規制は、2024年に施行されたEU AI Actである。
AI法は、リスクベースのアプローチにより、AIシステムのプロバイダに対するさまざまな義務を規定している。
これらの義務には、例えば、科学の潜在的な障害を表す文書化とコンプライアンス対策のカスケードが含まれる。
しかし、これらの義務はAI研究者にも適用されるのだろうか?
このポジションペーパーは、事実、AI法の義務は、AIコミュニティが認識しているよりも多くのケースに適用できると主張している。
AI法とその適用性の分析において、次のように貢献する。
1) 非法的なAI研究者を対象としたAI法について,高レベルの紹介を行う。
2)AI法が研究に適用される理由を,日常的な研究例で説明する。
3.)AI法の適用可能性の例外を分析し,特に科学研究の例外が現在のAI研究の実践を考慮できないことを述べる。
4)AI研究者に対してより法的確証を提供するため,AI法の変更を提案し,AI法に従わないリスクを低減するために,AI研究者に対して2つの勧告を行う。
われわれの論文は、政策立案者、法学者、そしてAI研究者が研究に対するAI法が意図しない副作用を避けるための議論の出発点であると考えている。
関連論文リスト
- Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [29.070947259551478]
私たちは202の現実世界のAIプライバシと倫理的インシデントを分析しました。
これにより、AIライフサイクルステージにまたがるインシデントタイプを分類する分類が作成される。
原因、責任ある実体、開示源、影響などの文脈的要因を考慮に入れている。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Ever heard of ethical AI? Investigating the salience of ethical AI
issues among the German population [0.0]
AIに対する一般的な関心と高等教育レベルは、AIとの関わりを予測している。
倫理的な問題は、公平さ、説明責任、透明性が最も言及されていない市民の小さなサブセットによってのみ語られる。
倫理的AIが頭上に立つと、アクティビズムの可能性がある。
論文 参考訳(メタデータ) (2022-07-28T13:46:13Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。