論文の概要: Challenging the Machine: Contestability in Government AI Systems
- arxiv url: http://arxiv.org/abs/2406.10430v1
- Date: Fri, 14 Jun 2024 22:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 00:32:34.239372
- Title: Challenging the Machine: Contestability in Government AI Systems
- Title(参考訳): マシンの混在 - 政府のAIシステムにおけるテスト可能性
- Authors: Susan Landau, James X. Dempsey, Ece Kamar, Steven M. Bellovin, Robert Pool,
- Abstract要約: 2024年1月24日から25日にかけて行われたワークショップは、人工知能に関する願望を実用的なガイダンスに変えることを目的としていた。
先進的な意思決定システムの競争性に関する要件はまだ完全に定義されておらず、実装されていない。
この文書は、そのワークショップの報告であり、勧告と解説資料である。
- 参考スコア(独自算出の注目度): 13.157925465480405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In an October 2023 executive order (EO), President Biden issued a detailed but largely aspirational road map for the safe and responsible development and use of artificial intelligence (AI). The challenge for the January 24-25, 2024 workshop was to transform those aspirations regarding one specific but crucial issue -- the ability of individuals to challenge government decisions made about themselves -- into actionable guidance enabling agencies to develop, procure, and use genuinely contestable advanced automated decision-making systems. While the Administration has taken important steps since the October 2023 EO, the insights garnered from our workshop remain highly relevant, as the requirements for contestability of advanced decision-making systems are not yet fully defined or implemented. The workshop brought together technologists, members of government agencies and civil society organizations, litigators, and researchers in an intensive two-day meeting that examined the challenges that users, developers, and agencies faced in enabling contestability in light of advanced automated decision-making systems. To ensure a free and open flow of discussion, the meeting was held under a modified version of the Chatham House rule. Participants were free to use any information or details that they learned, but they may not attribute any remarks made at the meeting by the identity or the affiliation of the speaker. Thus, the workshop summary that follows anonymizes speakers and their affiliation. Where an identification of an agency, company, or organization is made, it is done from a public, identified resource and does not necessarily reflect statements made by participants at the workshop. This document is a report of that workshop, along with recommendations and explanatory material.
- Abstract(参考訳): 2023年10月の大統領令(EO)で、ビデン大統領は人工知能(AI)の安全かつ責任ある開発と利用のための詳細な計画地図を公表した。
2024年1月24日から25日にかけてのワークショップの課題は、特定のが重要な問題、個人が政府による決定に挑戦する能力に関する願望を、代理店が真に競合可能な高度な自動意思決定システムを開発し、調達し、利用できるようにする実用的なガイダンスに転換することであった。
政府は2023年10月EO以降、重要な措置を講じてきたが、先進的な意思決定システムの競争性に関する要件がまだ十分に定義されていないため、ワークショップから得られた知見は、非常に関連性が高い。
ワークショップでは、技術者、政府機関、市民社会団体のメンバー、訴訟者、研究者が集中的な2日間の会合を開催し、高度な自動意思決定システムを考慮して、ユーザ、開発者、機関が競争性を実現するために直面した課題を調査した。
自由でオープンな議論の流れを確保するために、会議はチャタム・ハウス・ルールの修正版の下で開かれた。
参加者は、彼らが学んだ情報や詳細は自由に使用できたが、講演者のアイデンティティやアフィリエイトによる会議での発言には言及できない。
このように、ワークショップの要約は、話者とその関連性を匿名化します。
機関、会社、組織が特定される場合、それは公的に特定されたリソースから行われ、必ずしもワークショップの参加者による声明を反映しない。
この文書は、そのワークショップの報告であり、勧告と解説資料である。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Development of Autonomous Artificial Intelligence Systems for Corporate Management [0.0]
コーポレート・ディレクターの役割は、「芸術的」な人ではなく「自然的」な人によって執行するために法制化された数少ないものの1つである。
コーポレート・ローの分野において、取締役会のレベルで行われる経営決定の完全自動化のためのシステム開発のための主要な前提条件が形成される。
マネジメント決定の自動化には、トップマネジメントのレベルでの2つの主要な選択肢がある。
論文 参考訳(メタデータ) (2024-07-19T08:02:58Z) - Report on the Conference on Ethical and Responsible Design in the National AI Institutes: A Summary of Challenges [0.0]
2023年5月、ジョージア工科大学倫理・技術・ヒューマンインタラクションセンターは、国家AI研究所における倫理的・責任あるデザインに関する会議を組織した。
カンファレンスは3つの質問に焦点を当てた。 国家AI研究所がAIシステムの責任ある設計に関して直面している主な課題は何ですか?
この文書は、出席中の研究所の代表者が強調した課題をまとめたものである。
論文 参考訳(メタデータ) (2024-07-18T22:30:08Z) - Recommendations for Government Development and Use of Advanced Automated
Systems to Make Decisions about Individuals [14.957989495850935]
コンペティビリティは、しばしばデュエルプロセスの要素として立憲に要求される。
われわれは、高度な自動意思決定、競争性、法律に関するワークショップを開催した。
論文 参考訳(メタデータ) (2024-03-04T00:03:00Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Issues and Challenges in Applications of Artificial Intelligence to
Nuclear Medicine -- The Bethesda Report (AI Summit 2022) [6.810499400672468]
SNMMI人工知能(SNMMI-AI)サミットは2022年3月21日から22日にかけて、MDのベセスダで開催された。
学術、医療、産業、患者代表、政府(NIH、FDA)の様々なコミュニティメンバーと利害関係者を集結させた。
核医学におけるAIの日常的かつ信頼できる使用のために、明るい未来を構想し、促進するための様々な重要なテーマを検討した。
論文 参考訳(メタデータ) (2022-11-07T18:57:52Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence [0.0]
モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
論文 参考訳(メタデータ) (2020-06-12T09:20:04Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。