論文の概要: Keeping Community in the Loop: Understanding Wikipedia Stakeholder
Values for Machine Learning-Based Systems
- arxiv url: http://arxiv.org/abs/2001.04879v1
- Date: Tue, 14 Jan 2020 16:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 13:26:57.060494
- Title: Keeping Community in the Loop: Understanding Wikipedia Stakeholder
Values for Machine Learning-Based Systems
- Title(参考訳): コミュニティをループに維持する - マシンラーニングベースのシステムにおけるWikipedia Stakeholderの価値を理解する
- Authors: C. Estelle Smith, Bowen Yu, Anjali Srivastava, Aaron Halfaker, Loren
Terveen, Haiyi Zhu
- Abstract要約: 我々は,ORES(Objective Revision Evaluation System)と呼ばれる,コミュニティが作成・維持する機械学習に基づくアルゴリズムを理解するために,価値感的アルゴリズム設計アプローチを採用する。
ORESは、多くのウィキペディアアプリケーションやコンテキストで使われている品質予測システムである。
- 参考スコア(独自算出の注目度): 14.808971334949119
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: On Wikipedia, sophisticated algorithmic tools are used to assess the quality
of edits and take corrective actions. However, algorithms can fail to solve the
problems they were designed for if they conflict with the values of communities
who use them. In this study, we take a Value-Sensitive Algorithm Design
approach to understanding a community-created and -maintained machine
learning-based algorithm called the Objective Revision Evaluation System
(ORES)---a quality prediction system used in numerous Wikipedia applications
and contexts. Five major values converged across stakeholder groups that ORES
(and its dependent applications) should: (1) reduce the effort of community
maintenance, (2) maintain human judgement as the final authority, (3) support
differing peoples' differing workflows, (4) encourage positive engagement with
diverse editor groups, and (5) establish trustworthiness of people and
algorithms within the community. We reveal tensions between these values and
discuss implications for future research to improve algorithms like ORES.
- Abstract(参考訳): wikipediaでは、高度なアルゴリズムツールを使用して編集の質を評価し、修正措置を取る。
しかし、アルゴリズムは、それらを使用するコミュニティの価値と矛盾した場合、彼らが設計した問題を解決することができない可能性がある。
本研究では,コミュニティが作成・維持する「客観的修正評価システム」(objective revision evaluation system,ores)と呼ばれる機械学習に基づくアルゴリズムを理解するために,価値に敏感なアルゴリズム設計手法を採用する。
利害関係者グループ(およびその依存するアプリケーション)に集約された5つの大きな価値は、(1)コミュニティの維持努力を減らす、(2)最終的な権威として人間の判断を維持する、(3)人々の異なるワークフローをサポートする、(4)多様な編集者グループとの積極的な関わりを促進する、(5)コミュニティ内の人々とアルゴリズムの信頼性を確立する、の5つだ。
我々はこれらの値間の緊張関係を明らかにし、ORESのようなアルゴリズムを改善するための将来の研究の意味について議論する。
関連論文リスト
- Enhancing Community Detection in Networks: A Comparative Analysis of Local Metrics and Hierarchical Algorithms [49.1574468325115]
本研究は,地域間類似度指標を用いた地域検出の関連性を評価するために,同じ手法を用いている。
これらの指標の有効性は,異なるコミュニティサイズを持つ複数の実ネットワークにベースアルゴリズムを適用して評価した。
論文 参考訳(メタデータ) (2024-08-17T02:17:09Z) - Relevance-aware Algorithmic Recourse [3.6141428739228894]
アルゴリズムのリコースは、予測モデルによる決定を明確にするためのツールとして現れます。
現在のアルゴリズム的リコース法では、すべてのドメイン値が等しく扱われるが、現実の環境では非現実的である。
本稿では、回帰タスクにアルゴリズム・リコースを適用する際に、関連性の概念を活用する新しいフレームワーク、Relevance-Aware Algorithmic Recourse (RAAR)を提案する。
論文 参考訳(メタデータ) (2024-05-29T13:25:49Z) - Evidence of What, for Whom? The Socially Contested Role of Algorithmic Bias in a Predictive Policing Tool [0.9821874476902969]
異なるグループの利害関係者が,ツールのアルゴリズムバイアスの多様な問題診断を明確化することを示す。
利害関係者は、警察パトロールアロケーションに関する政策を改定するためにアルゴリズムバイアスの証拠を利用する。
アルゴリズムバイアスの様々な利用の暗黙の仮定と範囲を証拠とみなす。
論文 参考訳(メタデータ) (2024-05-13T13:03:33Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Examining the Impact of Algorithm Awareness on Wikidata's Recommender
System Recoin [12.167153941840958]
Wikidata のガジェットである Recoin のレコメンデータシステムとして MTurk を用いた 105 人の参加者によるオンライン実験を行った。
私たちの発見は、インタラクティブな再設計において、アルゴリズムシステムにおける理解と信頼の正の相関を含む。
以上の結果から,アルゴリズム認識の実証研究において,理解,公正性,正確性,信頼の尺度がまだ徹底していないことが示唆された。
論文 参考訳(メタデータ) (2020-09-18T20:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。