論文の概要: Rethinking People Analytics With Inverse Transparency by Design
- arxiv url: http://arxiv.org/abs/2305.09813v2
- Date: Wed, 26 Jul 2023 14:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:21:23.351050
- Title: Rethinking People Analytics With Inverse Transparency by Design
- Title(参考訳): デザインによる逆透過性による人間分析の再考
- Authors: Valentin Zieglmeier and Alexander Pretschner
- Abstract要約: 我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
- 参考スコア(独自算出の注目度): 57.67333075002697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Employees work in increasingly digital environments that enable advanced
analytics. Yet, they lack oversight over the systems that process their data.
That means that potential analysis errors or hidden biases are hard to uncover.
Recent data protection legislation tries to tackle these issues, but it is
inadequate. It does not prevent data misusage while at the same time stifling
sensible use cases for data.
We think the conflict between data protection and increasingly data-driven
systems should be solved differently. When access to an employees' data is
given, all usages should be made transparent to them, according to the concept
of inverse transparency. This allows individuals to benefit from sensible data
usage while addressing the potentially harmful consequences of data misusage.
To accomplish this, we propose a new design approach for workforce analytics we
refer to as inverse transparency by design.
To understand the developer and user perspectives on the proposal, we conduct
two exploratory studies with students. First, we let small teams of developers
implement analytics tools with inverse transparency by design to uncover how
they judge the approach and how it materializes in their developed tools. We
find that architectural changes are made without inhibiting core functionality.
The developers consider our approach valuable and technically feasible. Second,
we conduct a user study over three months to let participants experience the
provided inverse transparency and reflect on their experience. The study models
a software development workplace where most work processes are already digital.
Participants perceive the transparency as beneficial and feel empowered by it.
They unanimously agree that it would be an improvement for the workplace. We
conclude that inverse transparency by design is a promising approach to realize
accepted and responsible people analytics.
- Abstract(参考訳): 従業員は高度な分析を可能にする、ますますデジタル環境で働く。
しかし、データを処理するシステムに対する監視は欠如している。
つまり、潜在的な分析エラーや隠れバイアスは発見が難しいということだ。
最近のデータ保護法はこれらの問題に取り組みますが、不十分です。
データに対する適切なユースケースを省略しながらも、データの誤用を防ぎません。
データ保護とデータ駆動システムとの対立は、異なる方法で解決すべきだと考えています。
従業員のデータにアクセスする際には、逆透過性の概念に従って、すべての使用方法を透過的にする必要がある。
これにより個人は、データ誤用による潜在的に有害な結果に対処しながら、賢明なデータ使用の恩恵を受けることができる。
これを実現するために、我々は、デザインによる逆透明性と呼ばれる労働分析のための新しい設計手法を提案する。
本提案の開発者およびユーザ視点を理解するために,学生を対象に2つの探索研究を行った。
まず、小さな開発者のチームが逆透明性を備えた分析ツールを設計して、アプローチの判断方法と、それが開発ツールでどのように実現されているかを明らかにする。
アーキテクチャの変更はコア機能を阻害することなく行われます。
開発者は我々のアプローチを価値があり技術的に実現可能であると考えている。
第2に,3ヶ月以上にわたってユーザ調査を実施し,参加者が提供された逆透過性を体験し,その経験を反映させる。
この研究は、ほとんどの作業プロセスがすでにディジタルであるソフトウェア開発の作業場をモデル化する。
参加者は透明性を有益と認識し、その権限を行使する。
彼らは全会一致で職場の改善だと同意した。
設計による逆透過性は、受け入れられた、責任ある人の分析を実現するための有望なアプローチであると結論づける。
関連論文リスト
- Insights from an experiment crowdsourcing data from thousands of US Amazon users: The importance of transparency, money, and data use [6.794366017852433]
本稿は、米国5000人以上のユーザーから5年間にわたる、アクセス不能なAmazon購入履歴をクラウドソーシングする革新的なアプローチを共有する。
我々は参加者の同意を優先し、実験的な研究デザインを含むデータ収集ツールを開発した。
実験結果(N=6325)は、金銭的インセンティブと透明性の両方がデータ共有を大幅に増加させることを示している。
論文 参考訳(メタデータ) (2024-04-19T20:45:19Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - The Inverse Transparency Toolchain: A Fully Integrated and Quickly
Deployable Data Usage Logging Infrastructure [0.0]
逆透明性は、従業員データのすべての使用を見える化することで実現される。
逆透過性を統合する研究と教育のコンテキストでは、このような必要なインフラストラクチャを作成することは困難です。
Inverse Transparency Toolchainはこのようなシナリオに対して柔軟なソリューションを提供する。
論文 参考訳(メタデータ) (2023-08-08T16:04:48Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z) - Algorithmic Transparency with Strategic Users [9.289838852590732]
企業がそれを透明化すれば、機械学習アルゴリズムの予測能力も増大する可能性がある。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性があることを、私たちは示しています。
論文 参考訳(メタデータ) (2020-08-21T03:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。