論文の概要: Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2107.14046v1
- Date: Wed, 14 Jul 2021 15:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 07:13:23.669136
- Title: Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence
- Title(参考訳): aiアルゴリズムの監査と保証: 人工知能における倫理的アルゴリズムの実践を保証するフレームワーク
- Authors: Ramya Akula and Ivan Garibay
- Abstract要約: アメリカには、厳格な法律の禁止や、損傷を測定するための特定のプロトコルが欠けている。
自動運転車や銀行から医療、住宅、そして法的な決定に至るまで、もうすぐ膨大な量のアルゴリズムが存在する。
政府、企業、社会はアルゴリズム監査を受け、アルゴリズムが合法的で倫理的かつ安全であることを体系的に検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms are becoming more widely used in business, and businesses are
becoming increasingly concerned that their algorithms will cause significant
reputational or financial damage. We should emphasize that any of these damages
stem from situations in which the United States lacks strict legislative
prohibitions or specified protocols for measuring damages. As a result,
governments are enacting legislation and enforcing prohibitions, regulators are
fining businesses, and the judiciary is debating whether or not to make
artificially intelligent computer models as the decision-makers in the eyes of
the law. From autonomous vehicles and banking to medical care, housing, and
legal decisions, there will soon be enormous amounts of algorithms that make
decisions with limited human interference. Governments, businesses, and society
would have an algorithm audit, which would have systematic verification that
algorithms are lawful, ethical, and secure, similar to financial audits. A
modern market, auditing, and assurance of algorithms developed to
professionalize and industrialize AI, machine learning, and related algorithms.
Stakeholders of this emerging field include policymakers and regulators, along
with industry experts and entrepreneurs. In addition, we foresee audit
thresholds and frameworks providing valuable information to all who are
concerned with governance and standardization. This paper aims to review the
critical areas required for auditing and assurance and spark discussion in this
novel field of study and practice.
- Abstract(参考訳): アルゴリズムはビジネスでより広く使われるようになり、ビジネスは彼らのアルゴリズムが大きな評判や財政的損害をもたらすことを心配するようになった。
これらの損害は、アメリカ合衆国が厳格な法律や、被害を測定するための特定のプロトコルを欠いている状況に起因していると強調すべきである。
その結果、政府は法律を制定し、禁止を強制し、規制当局は事業を営み、司法は、法律の視点で意思決定者として人工知能のコンピュータモデルを作るかどうかを議論している。
自動運転車や銀行から医療、住宅、法的な決定に至るまで、人間の干渉に制限された意思決定を行うアルゴリズムは、まもなく膨大な数になる。
政府、企業、社会にはアルゴリズム監査があり、財務監査と同様に、アルゴリズムが合法的、倫理的、安全であることを体系的に検証する。
現代の市場、監査、アルゴリズムの保証は、ai、機械学習、関連するアルゴリズムの専門化と工業化のために開発された。
この新興分野の株主には、政策立案者や規制当局、業界の専門家や起業家が含まれる。
さらに、ガバナンスや標準化に関心のあるすべての人に貴重な情報を提供する監査しきい値やフレームワークも予測しています。
本稿では,この新たな研究・実践分野における監査・保証に必要な重要領域の見直しと議論の火花について述べる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Public vs Private Bodies: Who Should Run Advanced AI Evaluations and Audits? A Three-Step Logic Based on Case Studies of High-Risk Industries [0.5573180584719433]
本稿では,先進的なAIのどの部分を監査すべきかを,9つの制度から明らかにする。
公的・私的な監査人間の効果的な責任配分は、特定の産業や監査条件に大きく依存する。
公共団体の能力は、産業のリスクレベル、規模、市場集中度とともに拡大すべきである。
論文 参考訳(メタデータ) (2024-07-30T14:25:08Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Law and the Emerging Political Economy of Algorithmic Audits [1.3654846342364302]
デジタルサービス法(DSA)とオンライン安全法(OSA)は、テクノロジー企業や(伝統的に)監査人がアルゴリズム監査の実践を開発する枠組みを確立している。
本稿では,DSAとOSAにおける監査規定を,アルゴリズム監査の新興産業からの観測を踏まえて体系的にレビューする。
我々は、アルゴリズム監査の野心的な研究アイデアと技術プロジェクトは、従来の監査員の標準化によって崩壊する可能性があることを警告する。
論文 参考訳(メタデータ) (2024-04-03T19:45:30Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The Flaws of Policies Requiring Human Oversight of Government Algorithms [2.741266294612776]
政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
まず、政府機関はアルゴリズムを意思決定に組み込むのが適切であることを正当化しなければならない。
第二に、これらの正当化は、政府機関がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
論文 参考訳(メタデータ) (2021-09-10T18:58:45Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。