論文の概要: APPRAISE: a governance framework for innovation with AI systems
- arxiv url: http://arxiv.org/abs/2309.14876v2
- Date: Mon, 11 Dec 2023 16:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 20:29:28.740930
- Title: APPRAISE: a governance framework for innovation with AI systems
- Title(参考訳): APPRAISE:AIシステムによるイノベーションのためのガバナンスフレームワーク
- Authors: Diptish Dey and Debarati Bhaumik
- Abstract要約: EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、AIシステムの有害な影響を封じ込めようとする最初の重大な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As artificial intelligence (AI) systems increasingly impact society, the EU
Artificial Intelligence Act (AIA) is the first serious legislative attempt to
contain the harmful effects of AI systems. This paper proposes a governance
framework for AI innovation. The framework bridges the gap between strategic
variables and responsible value creation, recommending audit as an enforcement
mechanism. Strategic variables include, among others, organization size,
exploration versus exploitation -, and build versus buy dilemmas. The proposed
framework is based on primary and secondary research; the latter describes four
pressures that organizations innovating with AI experience. Primary research
includes an experimental setup, using which 34 organizations in the Netherlands
are surveyed, followed up by 2 validation interviews. The survey measures the
extent to which organizations coordinate technical elements of AI systems to
ultimately comply with the AIA. The validation interviews generated additional
in-depth insights and provided root causes. The moderating effect of the
strategic variables is tested and found to be statistically significant for
variables such as organization size. Relevant insights from primary and
secondary research are eventually combined to propose the APPRAISE framework.
- Abstract(参考訳): 人工知能(AI)システムが社会にますます影響を及ぼす中、EU人工知能法(AIA)は、AIシステムの有害な影響を封じ込めようとする最初の深刻な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋め、監査を執行メカニズムとして推奨する。
戦略変数には、組織のサイズ、探究と搾取 - 、ビルドとジレンマの購入 - などが含まれる。
提案されたフレームワークは、プライマリとセカンダリリサーチに基づいており、後者は、組織がAI経験を革新する4つのプレッシャーを記述している。
主要な研究には実験的なセットアップが含まれており、そこではオランダの34の組織が調査され、続いて2つの検証面接が行われる。
この調査は、組織がAIシステムの技術的要素を最終的にAIAに適合させる程度を測定する。
バリデーションのインタビューは、さらなる深い洞察と根本原因を生み出した。
戦略変数のモデレーション効果を検証し、組織サイズなどの変数に対して統計的に有意であることを示した。
プライマリ・セカンダリリサーチからの関連知見をまとめてAPPRAISEフレームワークを提案する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - A Game-Theoretic Framework for AI Governance [8.658519485150423]
規制当局とAI企業間の戦略的相互作用は、Stackelbergのゲームを連想させる固有の構造を持っていることを示す。
本稿では,AIガバナンスのためのゲーム理論モデリングフレームワークを提案する。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
論文 参考訳(メタデータ) (2023-05-24T08:18:42Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - SoK: On the Semantic AI Security in Autonomous Driving [42.15658768948801]
自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。
このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
論文 参考訳(メタデータ) (2022-03-10T12:00:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。