論文の概要: A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making
- arxiv url: http://arxiv.org/abs/2208.10087v1
- Date: Mon, 22 Aug 2022 06:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:38:38.683368
- Title: A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making
- Title(参考訳): 政府による人工知能利用と自動意思決定のための信頼枠組み
- Authors: Pia Andrews, Tim de Sousa, Bruce Haefele, Matt Beard, Marcus Wigan,
Abhinav Palia, Kathy Reid, Saket Narayan, Morgan Dumitru, Alex Morrison,
Geoff Mason, Aurelie Jacquet
- Abstract要約: 本稿では,公共セクターシステムとプロセスの機械化,デジタル化,自動化の課題を明らかにする。
公立機関において、倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.1527458325979785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper identifies the current challenges of the mechanisation,
digitisation and automation of public sector systems and processes, and
proposes a modern and practical framework to ensure and assure ethical and high
veracity Artificial Intelligence (AI) or Automated Decision Making (ADM)
systems in public institutions. This framework is designed for the specific
context of the public sector, in the jurisdictional and constitutional context
of Australia, but is extendable to other jurisdictions and private sectors. The
goals of the framework are to: 1) earn public trust and grow public confidence
in government systems; 2) to ensure the unique responsibilities and
accountabilities (including to the public) of public institutions under
Administrative Law are met effectively; and 3) to assure a positive human,
societal and ethical impact from the adoption of such systems. The framework
could be extended to assure positive environmental or other impacts, but this
paper focuses on human/societal outcomes and public trust. This paper is meant
to complement principles-based frameworks like Australia's Artificial
Intelligence Ethics Framework and the EU Assessment List for Trustworthy AI. In
many countries, COVID created a bubble of improved trust, a bubble which has
arguably already popped, and in an era of unprecedented mistrust of public
institutions (but even in times of high trust) it is not enough that a service
is faster, or more cost-effective. This paper proposes recommendations for
government systems (technology platforms, operations, culture, governance,
engagement, etc.) that would help to improve public confidence and trust in
public institutions, policies and services, whilst meeting the special
obligations and responsibilities of the public sector.
- Abstract(参考訳): 本稿では、公共セクターシステムとプロセスの機械化、デジタル化、自動化の現在の課題を明らかにし、公立機関における倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
この枠組みは、オーストラリアの司法および憲法上の文脈において、公共部門の特定の文脈向けに設計されているが、他の管轄区域や民間部門にも拡張可能である。
フレームワークの目標は次のとおりです。
1) 公的な信頼を得て,行政制度に対する公的な信頼を高めること。
2 行政法に基づく公共機関の独自の責任及び責任(公衆を含む。)を効果的に満たすため、及び
3)このような制度の導入によるポジティブな人間、社会的、倫理的な影響を保証すること。
この枠組みは、ポジティブな環境や他の影響を保証するために拡張することができるが、本論文は、人間/社会の成果と公共の信頼に焦点を当てている。
この論文は、オーストラリアの人工知能倫理フレームワークや、信頼できるAIのためのEUアセスメントリストのような原則に基づくフレームワークを補完することを目的としている。
多くの国で、新型コロナウイルス(COVID-19)は信頼向上のバブルを作り、すでに出現したバブルは、公共機関(しかし高い信頼の時でさえ)が前例のない不信の時代には、サービスがより速く、よりコスト効率が良いほどには不十分である。
本稿では,公共機関,政策,サービスに対する公共の信頼と信頼を向上し,公共部門の特別な義務や責任を果たすための,政府システム(技術プラットフォーム,運用,文化,ガバナンス,関与など)の提言を提案する。
関連論文リスト
- Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fiduciary Responsibility: Facilitating Public Trust in Automated
Decision Making [0.0]
研究と実世界の経験は、公衆が自動意思決定システムへの信頼を欠いていることを示している。
リレーレンシーの定理は、これらの機関が彼らの財政的責任を果たすならば、国民は自動的な意思決定システムによってなされた決定を信頼し、支持する傾向にある、と論じている。
本稿では,自動意思決定システムにおける業務責任の役割を定義し,説明する。
論文 参考訳(メタデータ) (2023-01-06T18:19:01Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Security and Privacy Considerations for Machine Learning Models Deployed
in the Government and Public Sector (white paper) [1.438446731705183]
未知の信頼性を持つユーザと、政府や公共セクターに展開されている機械学習モデルとの間の避けられない相互作用が、システムを危険にさらすことができるかを説明する。
提供されたサービスのセキュリティとプライバシを強化するためのレコメンデーションとガイドラインを提案する。
論文 参考訳(メタデータ) (2020-10-12T16:05:29Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。