論文の概要: Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy
- arxiv url: http://arxiv.org/abs/2405.19187v1
- Date: Wed, 29 May 2024 15:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 16:31:41.511357
- Title: Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy
- Title(参考訳): ハンドオフレンズによるアルゴリズムの透明性と参加:米国国勢調査局による差分プライバシーの導入から学んだ教訓
- Authors: Amina A. Abdu, Lauren M. Chambers, Deirdre K. Mulligan, Abigail Z. Jacobs,
- Abstract要約: 我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
- 参考スコア(独自算出の注目度): 1.999925939110439
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emerging discussions on the responsible government use of algorithmic technologies propose transparency and public participation as key mechanisms for preserving accountability and trust. But in practice, the adoption and use of any technology shifts the social, organizational, and political context in which it is embedded. Therefore translating transparency and participation efforts into meaningful, effective accountability must take into account these shifts. We adopt two theoretical frames, Mulligan and Nissenbaum's handoff model and Star and Griesemer's boundary objects, to reveal such shifts during the U.S. Census Bureau's adoption of differential privacy (DP) in its updated disclosure avoidance system (DAS) for the 2020 census. This update preserved (and arguably strengthened) the confidentiality protections that the Bureau is mandated to uphold, and the Bureau engaged in a range of activities to facilitate public understanding of and participation in the system design process. Using publicly available documents concerning the Census' implementation of DP, this case study seeks to expand our understanding of how technical shifts implicate values, how such shifts can afford (or fail to afford) greater transparency and participation in system design, and the importance of localized expertise throughout. We present three lessons from this case study toward grounding understandings of algorithmic transparency and participation: (1) efforts towards transparency and participation in algorithmic governance must center values and policy decisions, not just technical design decisions; (2) the handoff model is a useful tool for revealing how such values may be cloaked beneath technical decisions; and (3) boundary objects alone cannot bridge distant communities without trusted experts traveling alongside to broker their adoption.
- Abstract(参考訳): アルゴリズム技術の責任を負う政府利用に関する新たな議論は、透明性と公的参加を説明責任と信頼を維持するための重要なメカニズムとして提案する。
しかし実際には、あらゆる技術の採用と利用は、それが組み込まれている社会的、組織的、政治的文脈を変える。
したがって、透明性と参加の努力を意味のある効果的な説明責任に翻訳するには、これらの変化を考慮する必要がある。
我々は、Mulligan と Nissenbaum のハンドオフモデルと Star と Griesemer のバウンダリオブジェクトという2つの理論的枠組みを採用し、2020 年の国勢調査における最新の開示回避システム (DAS) において、アメリカ合衆国国勢調査局による差分プライバシー (DP) の導入の間にそのような変化を明らかにする。
この更新は、局が維持するよう義務付けられている機密性保護を保存(かつ確実に強化)し、局はシステム設計プロセスへの公衆の理解と参加を促進するために、幅広い活動に従事した。
このケーススタディは、国勢調査によるDPの実装に関する公開文書を用いて、技術的シフトが価値をどう意味するか、そのようなシフトがいかにして、より透明性とシステム設計への参加を得られるか(あるいは、手に入らないか)、そして局所的な専門知識の重要性の理解を深めようとしている。
本事例から, アルゴリズムの透明性と参加の理解の基盤となるための3つの教訓を提示する。(1) アルゴリズムガバナンスへの透明性と参加への取り組みは, 技術的な設計決定だけでなく, 価値と政策決定を中心にする必要がある。(2) ハンドオフモデルは, 技術的決定の下でどのようにその価値が詰まるかを明らかにするための有用なツールであり, (3) 境界オブジェクトだけでは, 信頼できる専門家を伴わずに, 遠く離れたコミュニティを橋渡しできない。
関連論文リスト
- Coordinated Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
機械学習(ML)モデルにおけるアルゴリズム上の欠陥は、従来のソフトウェア脆弱性とは異なる課題を示している。
このギャップに対処するため、我々は専用のコーディネート・フラッド・開示・フレームワークの実装を提案する。
本稿では,MLにおける情報開示の歴史的背景を考察し,害の報告や参加型監査の出現を包括する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - GLASS: A Citizen-Centric Distributed Data-Sharing Model within an
e-Governance Architecture [3.2573367820925268]
本稿では,セキュリティ,透明性,費用対効果,信頼(GLASS)モデルのための分散ファイル交換ネットワークをベースとした,e-GovernAnce Paradigm の sinGLe サインオンに焦点をあてる。
認可されたブロックチェーンをIPFS(InterPlanetary File System)に統合する。
この方法は、GLASSエコシステムの検証済み認証情報を暗号化し、格納する方法を示す。
論文 参考訳(メタデータ) (2022-03-16T17:45:29Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。