論文の概要: Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use
- arxiv url: http://arxiv.org/abs/2405.12458v1
- Date: Tue, 21 May 2024 02:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 14:38:05.017080
- Title: Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use
- Title(参考訳): 公共セクタAIの研究:AI設計と利用に関する権力関係のネットワークの判断
- Authors: Anna Kawakami, Amanda Coston, Hoda Heidari, Kenneth Holstein, Haiyi Zhu,
- Abstract要約: 私たちは、AIツールが代理店で果たす役割について決定する権限と責任を持つ人々について、公共セクターAIを研究します。
私たちの調査結果は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することに対する障壁や不関心をいかに生み出すかに光を当てています。
- 参考スコア(独自算出の注目度): 29.52245155918532
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As public sector agencies rapidly introduce new AI tools in high-stakes domains like social services, it becomes critical to understand how decisions to adopt these tools are made in practice. We borrow from the anthropological practice to ``study up'' those in positions of power, and reorient our study of public sector AI around those who have the power and responsibility to make decisions about the role that AI tools will play in their agency. Through semi-structured interviews and design activities with 16 agency decision-makers, we examine how decisions about AI design and adoption are influenced by their interactions with and assumptions about other actors within these agencies (e.g., frontline workers and agency leaders), as well as those above (legal systems and contracted companies), and below (impacted communities). By centering these networks of power relations, our findings shed light on how infrastructural, legal, and social factors create barriers and disincentives to the involvement of a broader range of stakeholders in decisions about AI design and adoption. Agency decision-makers desired more practical support for stakeholder involvement around public sector AI to help overcome the knowledge and power differentials they perceived between them and other stakeholders (e.g., frontline workers and impacted community members). Building on these findings, we discuss implications for future research and policy around actualizing participatory AI approaches in public sector contexts.
- Abstract(参考訳): 公共セクターは、ソーシャルサービスのような高度なドメインで新しいAIツールを急速に導入するにつれて、これらのツールを採用するための決定が実際にどのように行われるかを理解することが重要になる。
我々は、人文科学の実践から、権力の立場にある者の「研究」に借用し、AIツールがその機関で果たす役割について決定する権限と責任を持つ人々を中心に、公共セクターAIの研究を再調整する。
半構造化されたインタビューと16機関の意思決定者による設計活動を通じて、これらの機関内の他のアクター(例えば、最前線の労働者や機関のリーダー)と、上記(法制度や契約企業)と以下(影響のあるコミュニティ)との相互作用と仮定によって、AI設計と採用に関する決定がどのように影響するかを検討する。
こうした権力関係のネットワークを集中させることで、我々の発見は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することへの障壁と無関心をいかに生み出すかに光を当てた。
機関の意思決定者は、彼らと他の利害関係者(例えば、最前線の労働者や影響のあるコミュニティメンバー)の認識した知識とパワーの差を克服するために、公共セクターAIに関わるステークホルダーへのより実践的な支援を望んだ。
これらの知見に基づいて、公共セクターの文脈における参加型AIアプローチの実現に関する今後の研究と政策について論じる。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Exploring Public Opinion on Responsible AI Through The Lens of Cultural
Consensus Theory [0.1813006808606333]
文化合意理論を,AIの様々な側面に関する全国代表的調査データセットに適用した。
私たちの結果は、責任あるAIに関する共有とコントラストの見解を特定することで、貴重な洞察を与えます。
論文 参考訳(メタデータ) (2024-01-06T20:57:35Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。