論文の概要: Trustworthy Transparency by Design
- arxiv url: http://arxiv.org/abs/2103.10769v2
- Date: Fri, 19 May 2023 12:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 16:00:38.761665
- Title: Trustworthy Transparency by Design
- Title(参考訳): デザインによる信頼できる透明性
- Authors: Valentin Zieglmeier and Alexander Pretschner
- Abstract要約: 本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
- 参考スコア(独自算出の注目度): 57.67333075002697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individuals lack oversight over systems that process their data. This can
lead to discrimination and hidden biases that are hard to uncover. Recent data
protection legislation tries to tackle these issues, but it is inadequate. It
does not prevent data misusage while stifling sensible use cases for data. We
think the conflict between data protection and increasingly data-based systems
should be solved differently. When access to data is given, all usages should
be made transparent to the data subjects. This enables their data sovereignty,
allowing individuals to benefit from sensible data usage while addressing
potentially harmful consequences of data misusage. We contribute to this with a
technical concept and an empirical evaluation. First, we conceptualize a
transparency framework for software design, incorporating research on user
trust and experience. Second, we instantiate and empirically evaluate the
framework in a focus group study over three months, centering on the user
perspective. Our transparency framework enables developing software that
incorporates transparency in its design. The evaluation shows that it satisfies
usability and trustworthiness requirements. The provided transparency is
experienced as beneficial and participants feel empowered by it. This shows
that our framework enables Trustworthy Transparency by Design.
- Abstract(参考訳): 個人はデータを処理するシステムに対する監視を欠いている。
これは識別と発見が難しい隠れバイアスにつながる可能性がある。
最近のデータ保護法はこれらの問題に取り組みますが、不十分です。
データに対する適切なユースケースを排除しながらも、データの誤用を防ぎません。
データ保護とデータベースのシステムとの対立は、異なる方法で解決すべきだと考えています。
データへのアクセスが与えられると、すべての使用法をデータ主題に対して透過的にすべきである。
これによりデータの主権が実現し、個人はデータ誤用による潜在的に有害な結果に対処しながら、賢明なデータ使用の恩恵を受けることができる。
我々は、技術的概念と経験的評価でこれを貢献する。
まず,ユーザ信頼と経験に関する研究を取り入れ,ソフトウェア設計のための透明性フレームワークを概念化する。
第2に,ユーザ視点を中心とした3ヶ月間のフォーカスグループ調査において,フレームワークをインスタンス化し,経験的に評価する。
私たちの透明性フレームワークは、その設計に透明性を取り入れたソフトウェア開発を可能にします。
この評価は、ユーザビリティと信頼性の要件を満たすことを示している。
提供された透明性は有益なものとして経験され、参加者はそれを力づけられていると感じます。
これは、我々のフレームワークが設計による信頼できる透明性を可能にしていることを示している。
関連論文リスト
- Confidential Computing Transparency [7.9699781371465965]
本稿では,段階的な透明性を有する信頼性コンピューティング透明性フレームワークを提案する。
このフレームワークは、レビュアーに説明責任を組み込むことによって、オープンソースのコードや監査のような現在の手段を越えている。
私たちの結びついたアプローチは、複雑な現実世界のシステムにおいて透明性を実現するための実践的な経路を提供します。
論文 参考訳(メタデータ) (2024-09-05T17:24:05Z) - AI data transparency: an exploration through the lens of AI incidents [2.255682336735152]
本研究は、AIシステム内のデータプラクティスに関する公開ドキュメントが公衆の関心を喚起する状況について調査する。
我々は、AIシステムの多様性を考慮に入れた、AIデータの透明性を監視する体系的な方法を開発する必要性を強調します。
論文 参考訳(メタデータ) (2024-09-05T07:23:30Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Contributing to Accessibility Datasets: Reflections on Sharing Study
Data by Blind People [14.625384963263327]
13人の盲目の被験者がデータ収集活動に従事している2つの研究結果を示す。
リスク・ベネフィットのトレードオフを評価する際に、異なる要因が被験者の学習データ共有意欲にどのような影響を及ぼすかを確認する。
大多数は、技術改善のためにデータの共有をサポートしますが、商用利用、関連するメタデータ、およびデータの影響に関する透明性の欠如に対する懸念を表明しています。
論文 参考訳(メタデータ) (2023-03-09T00:42:18Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。