論文の概要: Responsible Artificial Intelligence: A Structured Literature Review
- arxiv url: http://arxiv.org/abs/2403.06910v1
- Date: Mon, 11 Mar 2024 17:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 18:08:39.109230
- Title: Responsible Artificial Intelligence: A Structured Literature Review
- Title(参考訳): 責任ある人工知能:構造化された文献レビュー
- Authors: Sabrina Goellner, Marina Tropmann-Frick, Bostjan Brumen
- Abstract要約: EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our research endeavors to advance the concept of responsible artificial
intelligence (AI), a topic of increasing importance within EU policy
discussions. The EU has recently issued several publications emphasizing the
necessity of trust in AI, underscoring the dual nature of AI as both a
beneficial tool and a potential weapon. This dichotomy highlights the urgent
need for international regulation. Concurrently, there is a need for frameworks
that guide companies in AI development, ensuring compliance with such
regulations. Our research aims to assist lawmakers and machine learning
practitioners in navigating the evolving landscape of AI regulation,
identifying focal areas for future attention. This paper introduces a
comprehensive and, to our knowledge, the first unified definition of
responsible AI. Through a structured literature review, we elucidate the
current understanding of responsible AI. Drawing from this analysis, we propose
an approach for developing a future framework centered around this concept. Our
findings advocate for a human-centric approach to Responsible AI. This approach
encompasses the implementation of AI methods with a strong emphasis on ethics,
model explainability, and the pillars of privacy, security, and trust.
- Abstract(参考訳): 我々の研究は、EUの政策議論において重要性を増すトピックである責任ある人工知能(AI)の概念を前進させようとしている。
EUは最近、AIに対する信頼の必要性を強調したいくつかの出版物を公表し、AIの二重性は有益なツールと潜在的な武器の両方であると強調した。
この二分法は国際規制の緊急の必要性を強調している。
同時に、AI開発において企業を指導し、そのような規制の遵守を保証するフレームワークも必要である。
我々の研究は、AI規制の進化する風景をナビゲートする上で、議員や機械学習の実践者を支援することを目的としている。
本稿では,責任あるaiに関する最初の統一的な定義を包括的かつ我々の知識に導入する。
構造化された文献レビューを通じて、我々は責任あるAIの現在の理解を解明する。
この分析から,本概念を中心とした将来のフレームワーク開発へのアプローチを提案する。
我々の発見は、人間中心のResponsible AIアプローチを提唱している。
このアプローチは、倫理、モデル説明可能性、プライバシ、セキュリティ、信頼の柱に重点を置いて、AIメソッドの実装を含む。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Responsible AI: Portraits with Intelligent Bibliometrics [30.51687434548628]
この研究は、責任あるAIを定義し、そのコア原則を特定した。
この研究は、2015年からAIコミュニティが寄稿した17,799の論文を実証的に調査した。
複数の分野から380の記事からなるコアコホートの分析は、責任あるAIの最新の進歩を捉えている。
論文 参考訳(メタデータ) (2024-05-05T08:40:22Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。