論文の概要: Transparent AI Disclosure Obligations: Who, What, When, Where, Why, How
- arxiv url: http://arxiv.org/abs/2403.06823v2
- Date: Wed, 13 Mar 2024 08:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 10:59:18.382434
- Title: Transparent AI Disclosure Obligations: Who, What, When, Where, Why, How
- Title(参考訳): 透明なAI開示義務:誰、いつ、どこで、なぜ、どのように
- Authors: Abdallah El Ali, Karthikeya Puttur Venkatraj, Sophie Morosoli, Laurens
Naudts, Natali Helberger, Pablo Cesar
- Abstract要約: 本稿では,第52条の開示義務に基づく重要な質問を導出するための参加的アプローチを提案する。
参加者が第52条の関連する条項を5W1Hフレームワークを用いて分解するワークショップを2回実施する。
我々は5つのテーマと18のサブテーマにまとめられた149の質問をコントリビュートする。
- 参考スコア(独自算出の注目度): 8.261809630470491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in Generative Artificial Intelligence (AI) are resulting in
AI-generated media output that is (nearly) indistinguishable from human-created
content. This can drastically impact users and the media sector, especially
given global risks of misinformation. While the currently discussed European AI
Act aims at addressing these risks through Article 52's AI transparency
obligations, its interpretation and implications remain unclear. In this early
work, we adopt a participatory AI approach to derive key questions based on
Article 52's disclosure obligations. We ran two workshops with researchers,
designers, and engineers across disciplines (N=16), where participants
deconstructed Article 52's relevant clauses using the 5W1H framework. We
contribute a set of 149 questions clustered into five themes and 18 sub-themes.
We believe these can not only help inform future legal developments and
interpretations of Article 52, but also provide a starting point for
Human-Computer Interaction research to (re-)examine disclosure transparency
from a human-centered AI lens.
- Abstract(参考訳): 生成人工知能(AI)の進歩は、人間が生成したコンテンツと(ほぼ)区別できない、AI生成メディア出力をもたらす。
これはユーザーとメディアセクターに大きな影響を与える可能性がある。
現在議論されている欧州AI法は、52条の透明性義務を通じてこれらのリスクに対処することを目的としているが、その解釈と意味は明確ではない。
本稿では,第52条の開示義務に基づく重要な質問を導出するために,参加型AIアプローチを採用する。
参加者は5W1Hフレームワークを用いて52条の関連条項をデコンストラクションした。
我々は5つのテーマと18のサブテーマにまとめられた149の質問をコントリビュートする。
我々は、これらが、第52条の今後の法的発展と解釈を知らせるだけでなく、人間中心のAIレンズからの情報開示の透明性を(再)検査するために、人間とコンピュータのインタラクション研究の出発点となると考えている。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Ethical Framework for Harnessing the Power of AI in Healthcare and
Beyond [0.0]
この総合的な研究論文は、AI技術の急速な進化と密接に関連する倫理的次元を厳格に調査する。
この記事の中心は、透明性、エクイティ、回答可能性、人間中心の指向といった価値を、慎重に強調するために作られた、良心的なAIフレームワークの提案である。
この記事は、グローバルに標準化されたAI倫理の原則とフレームワークに対するプレッシャーの必要性を明確に強調している。
論文 参考訳(メタデータ) (2023-08-31T18:12:12Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Demystifying the Draft EU Artificial Intelligence Act [5.787117733071415]
2021年4月、欧州委員会はAI法として知られる人工知能に関する規則を提案した。
我々は、この法律の概要と、その意味を分析し、現代のAI実践の研究から、過去40年間のEU製品安全体制の構造まで幅広い奨学金について考察する。
ドラフトAI法のいくつかの規定は、驚くべき法的意味を持つが、他の条項は、規定された目標を達成するのにほとんど効果がないかもしれない。
論文 参考訳(メタデータ) (2021-07-08T10:04:07Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。