論文の概要: A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation
- arxiv url: http://arxiv.org/abs/2203.01455v1
- Date: Wed, 2 Mar 2022 23:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:22:36.781904
- Title: A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation
- Title(参考訳): 関係とは何か: アルゴリズム的説明責任と評価文書への関係的アプローチ
- Authors: Jacob Metcalf, Emanuel Moss, Ranjit Singh, Emnet Tafese, Elizabeth
Anne Watkins
- Abstract要約: 当社は、開発者はシステムがどのように動作するかに関する情報をほとんど独占していると論じています。
我々は、ロバストな説明責任体制は、大衆が共有された経験と関心を結び付ける機会を確立する必要があると論じている。
- 参考スコア(独自算出の注目度): 3.4438724671481755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Central to a number of scholarly, regulatory, and public conversations about
algorithmic accountability is the question of who should have access to
documentation that reveals the inner workings, intended function, and
anticipated consequences of algorithmic systems, potentially establishing new
routes for impacted publics to contest the operations of these systems.
Currently, developers largely have a monopoly on information about how their
systems actually work and are incentivized to maintain their own ignorance
about aspects of how their systems affect the world. Increasingly, legislators,
regulators and advocates have turned to assessment documentation in order to
address the gap between the public's experience of algorithmic harms and the
obligations of developers to document and justify their design decisions.
However, issues of standing and expertise currently prevent publics from
cohering around shared interests in preventing and redressing algorithmic
harms; as we demonstrate with multiple cases, courts often find computational
harms non-cognizable and rarely require developers to address material claims
of harm. Constructed with a triadic accountability relationship, algorithmic
impact assessment regimes could alter this situation by establishing procedural
rights around public access to reporting and documentation. Developing a
relational approach to accountability, we argue that robust accountability
regimes must establish opportunities for publics to cohere around shared
experiences and interests, and to contest the outcomes of algorithmic systems
that affect their lives. Furthermore, algorithmic accountability policies
currently under consideration in many jurisdictions must provide the public
with adequate standing and opportunities to access and contest the
documentation provided by the actors and the judgments passed by the forum.
- Abstract(参考訳): アルゴリズムのアカウンタビリティに関する多くの学術的、規制的、公的な議論の中心は、誰がアルゴリズムシステムの内部の動作、意図された機能、そして予想される結果を明らかにするドキュメントにアクセスすべきなのか、という問題であり、影響を受けた大衆がこれらのシステムの運用に異議を唱える新たなルートを確立する可能性がある。
現在、開発者はシステムがどのように動作するのかに関する情報を独占しており、システムがどのように世界に影響を与えるかについて、自身の無知を維持するインセンティブを与えられている。
ますます、アルゴリズム的害に対する一般市民の経験と、開発者が設計決定を文書化し正当化する義務とのギャップに対処するため、議員、規制当局、および支持者は、アセスメントドキュメンテーションに目を向けている。
しかし、現在、立証と専門知識の問題は、人々がアルゴリズムによる危害の防止と対処に共通の関心を抱くことを妨げている。
三元的説明責任関係で構築されたアルゴリズムによる影響評価体制は、報告や文書への公開アクセスに関する手続き的権利を確立することで、この状況を変えることができる。
アカウンタビリティーに対するリレーショナルアプローチを開発する上で、ロバストなアカウンタビリティー体制は、共有された経験や関心を取り巻く機会を確立し、彼らの生活に影響を与えるアルゴリズムシステムの結果に異議を唱える必要があると論じる。
さらに、現在多くの管轄区域で検討中のアルゴリズム的説明責任政策は、アクターが提供した文書やフォーラムが通過する判断にアクセスし、異議を唱える機会を国民に提供する必要がある。
関連論文リスト
- Evidence of What, for Whom? The Socially Contested Role of Algorithmic Bias in a Predictive Policing Tool [0.9821874476902969]
異なるグループの利害関係者が,ツールのアルゴリズムバイアスの多様な問題診断を明確化することを示す。
利害関係者は、警察パトロールアロケーションに関する政策を改定するためにアルゴリズムバイアスの証拠を利用する。
アルゴリズムバイアスの様々な利用の暗黙の仮定と範囲を証拠とみなす。
論文 参考訳(メタデータ) (2024-05-13T13:03:33Z) - Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector [0.0]
多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
論文 参考訳(メタデータ) (2024-03-20T14:20:42Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。