論文の概要: Complying with the EU AI Act
- arxiv url: http://arxiv.org/abs/2307.10458v1
- Date: Wed, 19 Jul 2023 21:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 15:27:16.939354
- Title: Complying with the EU AI Act
- Title(参考訳): EU AI法を遵守する
- Authors: Jacintha Walters, Diptish Dey, Debarati Bhaumik, Sophie Horsman
- Abstract要約: EU AI法は、AIシステムに関するEUの法律である。
本稿では,AI法のいくつかのカテゴリについて述べる。
サイズやセクターなどの組織特性の影響について検討し,コンプライアンスへの影響について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The EU AI Act is the proposed EU legislation concerning AI systems. This
paper identifies several categories of the AI Act. Based on this
categorization, a questionnaire is developed that serves as a tool to offer
insights by creating quantitative data. Analysis of the data shows various
challenges for organizations in different compliance categories. The influence
of organization characteristics, such as size and sector, is examined to
determine the impact on compliance. The paper will also share qualitative data
on which questions were prevalent among respondents, both on the content of the
AI Act as the application. The paper concludes by stating that there is still
room for improvement in terms of compliance with the AIA and refers to a
related project that examines a solution to help these organizations.
- Abstract(参考訳): EU AI法は、AIシステムに関するEUの法律である。
本稿では,AI法のいくつかのカテゴリについて述べる。
この分類に基づいて定量的データの作成による洞察を提供するツールとして,アンケートを開発した。
データの分析は、異なるコンプライアンスカテゴリの組織にとって、さまざまな課題を示しています。
サイズやセクターなどの組織特性の影響について検討し,コンプライアンスへの影響を検討する。
論文はまた、アプリケーションとしてai actの内容の両方について、回答者の間でどの質問が広まっているかという質的なデータを共有する。
論文は、AIAへのコンプライアンスの観点から改善の余地がまだ残っていることを述べ、これらの組織を支援するソリューションを検討する関連プロジェクトを参照することで締めくくっている。
関連論文リスト
- On Algorithmic Fairness and the EU Regulations [0.2538209532048867]
論文は、欧州連合(EU)における非差別と重要な法律に焦点を当てたアルゴリズム的公正性について議論する
人工知能(AI)に関するEUの差別に関する議論
論文は、ソフトウェア工学におけるコンプライアンスの研究領域を拡大し、強化するいくつかの法的洞察をもって、アルゴリズムフェアネス研究に貢献する。
論文 参考訳(メタデータ) (2024-11-13T06:23:54Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - APPRAISE: a governance framework for innovation with AI systems [0.0]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、AIシステムの有害な影響を封じ込めようとする最初の重大な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋める。
論文 参考訳(メタデータ) (2023-09-26T12:20:07Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A Survey on Aspect-Based Sentiment Analysis: Tasks, Methods, and
Challenges [58.97831696674075]
ABSAは、側面レベルで人々の意見を分析し、理解することを目的としている。
我々は、感情要素の軸から既存の研究を組織するABSAの新しい分類法を提供する。
ABSAの事前学習言語モデルの利用状況を要約し、ABSAの性能を新たな段階に向上させた。
論文 参考訳(メタデータ) (2022-03-02T12:01:46Z) - A Survey on Methods and Metrics for the Assessment of Explainability
under the Proposed AI Act [2.294014185517203]
この研究は、そのようなメトリクスがAI法へのコンプライアンスを容易にするために持つべき要件を特定する。
我々の分析は、提案されたAI法によって支持される説明可能性を測定するためのメトリクスは、リスクに焦点をあて、モデルに依存しず、目標を意識し、理解され、アクセス可能であることを示唆している。
論文 参考訳(メタデータ) (2021-10-21T14:27:24Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。