論文の概要: Challenging the Machine: Contestability in Government AI Systems
- arxiv url: http://arxiv.org/abs/2406.10430v1
- Date: Fri, 14 Jun 2024 22:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 00:32:34.239372
- Title: Challenging the Machine: Contestability in Government AI Systems
- Title(参考訳): マシンの混在 - 政府のAIシステムにおけるテスト可能性
- Authors: Susan Landau, James X. Dempsey, Ece Kamar, Steven M. Bellovin, Robert Pool,
- Abstract要約: 2024年1月24日から25日にかけて行われたワークショップは、人工知能に関する願望を実用的なガイダンスに変えることを目的としていた。
先進的な意思決定システムの競争性に関する要件はまだ完全に定義されておらず、実装されていない。
この文書は、そのワークショップの報告であり、勧告と解説資料である。
- 参考スコア(独自算出の注目度): 13.157925465480405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In an October 2023 executive order (EO), President Biden issued a detailed but largely aspirational road map for the safe and responsible development and use of artificial intelligence (AI). The challenge for the January 24-25, 2024 workshop was to transform those aspirations regarding one specific but crucial issue -- the ability of individuals to challenge government decisions made about themselves -- into actionable guidance enabling agencies to develop, procure, and use genuinely contestable advanced automated decision-making systems. While the Administration has taken important steps since the October 2023 EO, the insights garnered from our workshop remain highly relevant, as the requirements for contestability of advanced decision-making systems are not yet fully defined or implemented. The workshop brought together technologists, members of government agencies and civil society organizations, litigators, and researchers in an intensive two-day meeting that examined the challenges that users, developers, and agencies faced in enabling contestability in light of advanced automated decision-making systems. To ensure a free and open flow of discussion, the meeting was held under a modified version of the Chatham House rule. Participants were free to use any information or details that they learned, but they may not attribute any remarks made at the meeting by the identity or the affiliation of the speaker. Thus, the workshop summary that follows anonymizes speakers and their affiliation. Where an identification of an agency, company, or organization is made, it is done from a public, identified resource and does not necessarily reflect statements made by participants at the workshop. This document is a report of that workshop, along with recommendations and explanatory material.
- Abstract(参考訳): 2023年10月の大統領令(EO)で、ビデン大統領は人工知能(AI)の安全かつ責任ある開発と利用のための詳細な計画地図を公表した。
2024年1月24日から25日にかけてのワークショップの課題は、特定のが重要な問題、個人が政府による決定に挑戦する能力に関する願望を、代理店が真に競合可能な高度な自動意思決定システムを開発し、調達し、利用できるようにする実用的なガイダンスに転換することであった。
政府は2023年10月EO以降、重要な措置を講じてきたが、先進的な意思決定システムの競争性に関する要件がまだ十分に定義されていないため、ワークショップから得られた知見は、非常に関連性が高い。
ワークショップでは、技術者、政府機関、市民社会団体のメンバー、訴訟者、研究者が集中的な2日間の会合を開催し、高度な自動意思決定システムを考慮して、ユーザ、開発者、機関が競争性を実現するために直面した課題を調査した。
自由でオープンな議論の流れを確保するために、会議はチャタム・ハウス・ルールの修正版の下で開かれた。
参加者は、彼らが学んだ情報や詳細は自由に使用できたが、講演者のアイデンティティやアフィリエイトによる会議での発言には言及できない。
このように、ワークショップの要約は、話者とその関連性を匿名化します。
機関、会社、組織が特定される場合、それは公的に特定されたリソースから行われ、必ずしもワークショップの参加者による声明を反映しない。
この文書は、そのワークショップの報告であり、勧告と解説資料である。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [71.20729309185124]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Autonomy and Safety Assurance in the Early Development of Robotics and Autonomous Systems [0.8999666725996975]
CRADLEは、保証を信頼性、透明性、信頼性の高い自律システムにおいて不可欠な部分にすることを目的としている。
ワークショップは、様々な分野の6つの規制および保証機関の代表を集結させた。
主な議論は、(i)AIRの安全性確保における課題、(ii)安全保証の証拠、(iii)自律システムにおいて、いかに保証ケースが異なる必要があるかという3つの研究課題に関するものだった。
論文 参考訳(メタデータ) (2025-01-30T16:00:26Z) - Future of Information Retrieval Research in the Age of Generative AI [61.56371468069577]
情報検索(IR)の急速に発展する分野では、大規模言語モデル(LLM)のような生成AI技術の統合が、情報の検索やインタラクションの方法を変えつつある。
このパラダイムシフトを認識したビジョンワークショップが2024年7月に開催され、生成AI時代のIRの将来について議論した。
本報告は、潜在的に重要な研究トピックとしての議論の要約を含み、学術、産業実践家、機関、評価キャンペーン、資金提供機関の推薦リストを含む。
論文 参考訳(メタデータ) (2024-12-03T00:01:48Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Report on the Conference on Ethical and Responsible Design in the National AI Institutes: A Summary of Challenges [0.0]
2023年5月、ジョージア工科大学倫理・技術・ヒューマンインタラクションセンターは、国家AI研究所における倫理的・責任あるデザインに関する会議を組織した。
カンファレンスは3つの質問に焦点を当てた。 国家AI研究所がAIシステムの責任ある設計に関して直面している主な課題は何ですか?
この文書は、出席中の研究所の代表者が強調した課題をまとめたものである。
論文 参考訳(メタデータ) (2024-07-18T22:30:08Z) - Recommendations for Government Development and Use of Advanced Automated
Systems to Make Decisions about Individuals [14.957989495850935]
コンペティビリティは、しばしばデュエルプロセスの要素として立憲に要求される。
われわれは、高度な自動意思決定、競争性、法律に関するワークショップを開催した。
論文 参考訳(メタデータ) (2024-03-04T00:03:00Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Issues and Challenges in Applications of Artificial Intelligence to
Nuclear Medicine -- The Bethesda Report (AI Summit 2022) [6.810499400672468]
SNMMI人工知能(SNMMI-AI)サミットは2022年3月21日から22日にかけて、MDのベセスダで開催された。
学術、医療、産業、患者代表、政府(NIH、FDA)の様々なコミュニティメンバーと利害関係者を集結させた。
核医学におけるAIの日常的かつ信頼できる使用のために、明るい未来を構想し、促進するための様々な重要なテーマを検討した。
論文 参考訳(メタデータ) (2022-11-07T18:57:52Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence [0.0]
モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
論文 参考訳(メタデータ) (2020-06-12T09:20:04Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。