論文の概要: Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2107.14046v1
- Date: Wed, 14 Jul 2021 15:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 07:13:23.669136
- Title: Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence
- Title(参考訳): aiアルゴリズムの監査と保証: 人工知能における倫理的アルゴリズムの実践を保証するフレームワーク
- Authors: Ramya Akula and Ivan Garibay
- Abstract要約: アメリカには、厳格な法律の禁止や、損傷を測定するための特定のプロトコルが欠けている。
自動運転車や銀行から医療、住宅、そして法的な決定に至るまで、もうすぐ膨大な量のアルゴリズムが存在する。
政府、企業、社会はアルゴリズム監査を受け、アルゴリズムが合法的で倫理的かつ安全であることを体系的に検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms are becoming more widely used in business, and businesses are
becoming increasingly concerned that their algorithms will cause significant
reputational or financial damage. We should emphasize that any of these damages
stem from situations in which the United States lacks strict legislative
prohibitions or specified protocols for measuring damages. As a result,
governments are enacting legislation and enforcing prohibitions, regulators are
fining businesses, and the judiciary is debating whether or not to make
artificially intelligent computer models as the decision-makers in the eyes of
the law. From autonomous vehicles and banking to medical care, housing, and
legal decisions, there will soon be enormous amounts of algorithms that make
decisions with limited human interference. Governments, businesses, and society
would have an algorithm audit, which would have systematic verification that
algorithms are lawful, ethical, and secure, similar to financial audits. A
modern market, auditing, and assurance of algorithms developed to
professionalize and industrialize AI, machine learning, and related algorithms.
Stakeholders of this emerging field include policymakers and regulators, along
with industry experts and entrepreneurs. In addition, we foresee audit
thresholds and frameworks providing valuable information to all who are
concerned with governance and standardization. This paper aims to review the
critical areas required for auditing and assurance and spark discussion in this
novel field of study and practice.
- Abstract(参考訳): アルゴリズムはビジネスでより広く使われるようになり、ビジネスは彼らのアルゴリズムが大きな評判や財政的損害をもたらすことを心配するようになった。
これらの損害は、アメリカ合衆国が厳格な法律や、被害を測定するための特定のプロトコルを欠いている状況に起因していると強調すべきである。
その結果、政府は法律を制定し、禁止を強制し、規制当局は事業を営み、司法は、法律の視点で意思決定者として人工知能のコンピュータモデルを作るかどうかを議論している。
自動運転車や銀行から医療、住宅、法的な決定に至るまで、人間の干渉に制限された意思決定を行うアルゴリズムは、まもなく膨大な数になる。
政府、企業、社会にはアルゴリズム監査があり、財務監査と同様に、アルゴリズムが合法的、倫理的、安全であることを体系的に検証する。
現代の市場、監査、アルゴリズムの保証は、ai、機械学習、関連するアルゴリズムの専門化と工業化のために開発された。
この新興分野の株主には、政策立案者や規制当局、業界の専門家や起業家が含まれる。
さらに、ガバナンスや標準化に関心のあるすべての人に貴重な情報を提供する監査しきい値やフレームワークも予測しています。
本稿では,この新たな研究・実践分野における監査・保証に必要な重要領域の見直しと議論の火花について述べる。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Regulating AI-Based Remote Biometric Identification. Investigating the
Public Demand for Bans, Audits, and Public Database Registrations [0.0]
この研究は、AI技術の規制の要求につながる可能性のある潜在的な要因として、AIに対する信頼と法執行への信頼の役割に焦点を当てている。
我々は、差別に対する認識がより強い規制の要求につながる一方で、AIへの信頼と法執行機関への信頼は、RBIシステムに対する規制の要求に関して反対の効果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:22:33Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - The Flaws of Policies Requiring Human Oversight of Government Algorithms [2.741266294612776]
政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
まず、政府機関はアルゴリズムを意思決定に組み込むのが適切であることを正当化しなければならない。
第二に、これらの正当化は、政府機関がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
論文 参考訳(メタデータ) (2021-09-10T18:58:45Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。