論文の概要: APPRAISE: a framework for managing AI compliance
- arxiv url: http://arxiv.org/abs/2309.14876v1
- Date: Tue, 26 Sep 2023 12:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 13:54:22.935955
- Title: APPRAISE: a framework for managing AI compliance
- Title(参考訳): AIコンプライアンスを管理するフレームワークAPPRAISE
- Authors: Diptish Dey and Debarati Bhaumik
- Abstract要約: EU AI Act(AIA)は、望ましくない効果を封じ込めようとする最初の真剣な試みである。
本稿では,AIコンプライアンスを管理するためのフレームワークであるAPPRAISEを提案する。
このフレームワークは、AIシステムの革新を通じて株主価値を生み出すことと、組織プロセスを通じてコンプライアンスを管理することは、最終的に責任を負う価値をもたらすという理論に基づいて構築されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI systems increasingly impact society, the EU AI Act (AIA) is the first
serious attempt to contain its less desired effects. Among others the act
proposes audit as a mechanism and compliance products as tools for
organizations to demonstrate compliance. In this paper, a framework for
managing AI compliance, APPRAISE, is proposed. The framework is built upon the
rationale that driving a balance between generating shareholder value through
innovation in AI systems and managing compliance through organizational
processes will eventually result in value that is responsible. By adhering to
AIA compliance products, the framework operationalizes and hence safeguards
compliance. Furthermore, a two-phase experiment with a limited scope is
presented. The experiment aims to measure the extent to which companies
coordinate technical elements of AI systems to ultimately comply with the AIA.
In the first phase a survey is conducted and in the second phase the survey
results are validated with a couple of respondents to generate additional
in-depth insights and root causes.
- Abstract(参考訳): AIシステムが社会にますます影響を及ぼす中、EU AI Act(AIA)は、望ましくない効果を封じ込めようとする最初の真剣な試みである。
この法律では、監査をメカニズムとして、コンプライアンス製品をコンプライアンスを示すためのツールとして提案している。
本稿では,AIコンプライアンスを管理するためのフレームワークであるAPPRAISEを提案する。
このフレームワークは、AIシステムの革新を通じて株主価値を生み出すことと、組織プロセスを通じてコンプライアンスを管理することは、最終的に責任を負う価値をもたらすという論理に基づいている。
AIAコンプライアンス製品に準拠することで、フレームワークは運用され、従ってコンプライアンスを保護する。
さらに, 限られた範囲の2相実験を行った。
この実験は、AIシステムの技術的要素が最終的にAIAに適合する範囲を測定することを目的としている。
第1フェーズでは,調査を実施し,第2フェーズでは,いくつかの回答者とともに調査結果を検証して,詳細な洞察と根本原因を生成する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - A Game-Theoretic Framework for AI Governance [8.658519485150423]
規制当局とAI企業間の戦略的相互作用は、Stackelbergのゲームを連想させる固有の構造を持っていることを示す。
本稿では,AIガバナンスのためのゲーム理論モデリングフレームワークを提案する。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
論文 参考訳(メタデータ) (2023-05-24T08:18:42Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - SoK: On the Semantic AI Security in Autonomous Driving [42.15658768948801]
自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。
このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
論文 参考訳(メタデータ) (2022-03-10T12:00:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。