論文の概要: Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy
- arxiv url: http://arxiv.org/abs/2405.19187v1
- Date: Wed, 29 May 2024 15:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 16:31:41.511357
- Title: Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy
- Title(参考訳): ハンドオフレンズによるアルゴリズムの透明性と参加:米国国勢調査局による差分プライバシーの導入から学んだ教訓
- Authors: Amina A. Abdu, Lauren M. Chambers, Deirdre K. Mulligan, Abigail Z. Jacobs,
- Abstract要約: 我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
- 参考スコア(独自算出の注目度): 1.999925939110439
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emerging discussions on the responsible government use of algorithmic technologies propose transparency and public participation as key mechanisms for preserving accountability and trust. But in practice, the adoption and use of any technology shifts the social, organizational, and political context in which it is embedded. Therefore translating transparency and participation efforts into meaningful, effective accountability must take into account these shifts. We adopt two theoretical frames, Mulligan and Nissenbaum's handoff model and Star and Griesemer's boundary objects, to reveal such shifts during the U.S. Census Bureau's adoption of differential privacy (DP) in its updated disclosure avoidance system (DAS) for the 2020 census. This update preserved (and arguably strengthened) the confidentiality protections that the Bureau is mandated to uphold, and the Bureau engaged in a range of activities to facilitate public understanding of and participation in the system design process. Using publicly available documents concerning the Census' implementation of DP, this case study seeks to expand our understanding of how technical shifts implicate values, how such shifts can afford (or fail to afford) greater transparency and participation in system design, and the importance of localized expertise throughout. We present three lessons from this case study toward grounding understandings of algorithmic transparency and participation: (1) efforts towards transparency and participation in algorithmic governance must center values and policy decisions, not just technical design decisions; (2) the handoff model is a useful tool for revealing how such values may be cloaked beneath technical decisions; and (3) boundary objects alone cannot bridge distant communities without trusted experts traveling alongside to broker their adoption.
- Abstract(参考訳): アルゴリズム技術の責任を負う政府利用に関する新たな議論は、透明性と公的参加を説明責任と信頼を維持するための重要なメカニズムとして提案する。
しかし実際には、あらゆる技術の採用と利用は、それが組み込まれている社会的、組織的、政治的文脈を変える。
したがって、透明性と参加の努力を意味のある効果的な説明責任に翻訳するには、これらの変化を考慮する必要がある。
我々は、Mulligan と Nissenbaum のハンドオフモデルと Star と Griesemer のバウンダリオブジェクトという2つの理論的枠組みを採用し、2020 年の国勢調査における最新の開示回避システム (DAS) において、アメリカ合衆国国勢調査局による差分プライバシー (DP) の導入の間にそのような変化を明らかにする。
この更新は、局が維持するよう義務付けられている機密性保護を保存(かつ確実に強化)し、局はシステム設計プロセスへの公衆の理解と参加を促進するために、幅広い活動に従事した。
このケーススタディは、国勢調査によるDPの実装に関する公開文書を用いて、技術的シフトが価値をどう意味するか、そのようなシフトがいかにして、より透明性とシステム設計への参加を得られるか(あるいは、手に入らないか)、そして局所的な専門知識の重要性の理解を深めようとしている。
本事例から, アルゴリズムの透明性と参加の理解の基盤となるための3つの教訓を提示する。(1) アルゴリズムガバナンスへの透明性と参加への取り組みは, 技術的な設計決定だけでなく, 価値と政策決定を中心にする必要がある。(2) ハンドオフモデルは, 技術的決定の下でどのようにその価値が詰まるかを明らかにするための有用なツールであり, (3) 境界オブジェクトだけでは, 信頼できる専門家を伴わずに, 遠く離れたコミュニティを橋渡しできない。
関連論文リスト
- The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI [4.627627425427264]
透明性のメリットに関するセキュリティコミュニティの視点では,3つの重要なテーマを特定します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
論文 参考訳(メタデータ) (2025-01-30T17:04:35Z) - Making Transparency Advocates: An Educational Approach Towards Better Algorithmic Transparency in Practice [10.466781527359698]
人工知能(AI)によって引き起こされるリスクと害に関する懸念は、アルゴリズムの透明性について大きな研究結果をもたらしている。
XAIにおける10年の開発にもかかわらず、研究の進歩はアルゴリズムの透明性の実装に完全には翻訳されていない。
透明性の擁護者を作成することによって、この問題に対処するためのアプローチをテストします。
論文 参考訳(メタデータ) (2024-12-19T19:49:59Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [46.404531555921906]
機密性と透明性の両立を目的とした,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - A Confidential Computing Transparency Framework for a Comprehensive Trust Chain [7.9699781371465965]
Confidential Computingは、ハードウェアベースのTrusted Execution Environmentを通じて、使用中のデータのプライバシを高める。
TEEは脆弱性やバックドアの欠如を保証できないため、ユーザの信頼を必要とします。
機密情報処理の透明性を漸進的に向上するための実践的な経路を組織に提供する3段階の概念フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T17:24:05Z) - Through the Looking-Glass: Transparency Implications and Challenges in Enterprise AI Knowledge Systems [3.9143193313607085]
本稿では,AI知識システムにおける透明性要件と影響のリフレクティブ分析について述べる。
私たちは透明性を、さまざまな見方を形作る上で重要な仲介者として定式化しています。
我々は,AI知識システムの価値を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。