論文の概要: Legacy Procurement Practices Shape How U.S. Cities Govern AI: Understanding Government Employees' Practices, Challenges, and Needs
- arxiv url: http://arxiv.org/abs/2411.04994v2
- Date: Fri, 07 Feb 2025 19:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:27:35.374663
- Title: Legacy Procurement Practices Shape How U.S. Cities Govern AI: Understanding Government Employees' Practices, Challenges, and Needs
- Title(参考訳): レガシー調達の実践は、どのように米国都市が統治するAIを形作る: 政府職員の実践、課題、ニーズを理解する
- Authors: Nari Johnson, Elise Silva, Harrison Leon, Motahhare Eslami, Beth Schwanke, Ravit Dotan, Hoda Heidari,
- Abstract要約: 我々は、米国の都市の調達慣行がどのように公共セクターAIを取り巻く批判的な決定を形作るかについて、最初の実証的研究を行う。
都市のレガシーな調達慣行は、数十年前の法律や規範によって形作られています。
我々は、既存のAI調達改革イニシアチブによって完全に対処されていないが、動機づける3つの重要な課題を特定します。
- 参考スコア(独自算出の注目度): 10.903058246149469
- License:
- Abstract: Most AI tools adopted by governments are not developed internally, but instead are acquired from third-party vendors in a process called public procurement. In this paper, we conduct the first empirical study of how United States cities' procurement practices shape critical decisions surrounding public sector AI. We conduct semi-structured interviews with 19 city employees who oversee AI procurement across 7 U.S. cities. We found that cities' legacy procurement practices, which are shaped by decades-old laws and norms, establish infrastructure that determines which AI is purchased, and which actors hold decision-making power over procured AI. We characterize the emerging actions cities have taken to adapt their purchasing practices to address algorithmic harms. From employees' reflections on real-world AI procurements, we identify three key challenges that motivate but are not fully addressed by existing AI procurement reform initiatives. Based on these findings, we discuss implications and opportunities for the FAccT community to support cities in foreseeing and preventing AI harms throughout the public procurement processes.
- Abstract(参考訳): 政府によって採用されるほとんどのAIツールは、内部で開発されていないが、代わりに、公開調達と呼ばれるプロセスでサードパーティベンダーから取得される。
本稿では,米国都市における調達慣行が,公共部門AIを取り巻く批判的な決定をいかに形成するかについて,最初の実証的研究を行う。
私たちは、米国の7つの都市でAIの調達を監督している19人の都市従業員と半構造化されたインタビューを行います。
何十年にもわたって法律や規範によって形作られた都市におけるレガシーな調達慣行が、どのAIが購入され、どのアクターが調達されたAIに対して意思決定力を持っているかを決定するインフラを確立することを発見した。
我々は、都市がアルゴリズムの害に対処するために彼らの購買慣行に適応するために取ってきた新興の行動の特徴を特徴づける。
実世界のAI調達に関する従業員の考察から、我々は、既存のAI調達改革イニシアチブによって完全に対処されていない、動機付けられた3つの重要な課題を特定します。
これらの知見に基づき、FAccTコミュニティが公的な調達プロセスを通じてAIの害を予見し、予防する上で、都市を支援することの意味と機会について論じる。
関連論文リスト
- How Do AI Companies "Fine-Tune" Policy? Examining Regulatory Capture in AI Governance [0.7252636622264104]
アメリカ合衆国の産業俳優は、汎用人工知能(AI)システムの規制に広範囲に影響を及ぼしてきた。
AI開発者とデプロイ担当者によるAIポリシーの取得は、汎用AIシステムの安全性、公正性、便益性、透明性、革新を保証するような規制上の目標を妨げうる。
専門家は、主に、AI規制の欠如、弱い規制、あるいは他者よりも特定の政策目標を過度に強調する規制の欠如につながる捕獲に関心を持っていた。
論文 参考訳(メタデータ) (2024-10-16T21:06:54Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - An Alternative to Regulation: The Case for Public AI [30.75103907839352]
我々は、政府または他の公共機関が資金提供し、提供し、管理する「パブリックAI」 -- パブリックアクセス可能なAIモデルを開発する取り組みについて説明する。
パブリックAIは、AIに対する標準的な規制アプローチの代替と補完の両方を提供するが、同時に、新たな技術的および政策上の課題も示唆している。
論文 参考訳(メタデータ) (2023-11-19T15:25:41Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。