論文の概要: Operationalizing Digital Self Determination
- arxiv url: http://arxiv.org/abs/2211.08539v1
- Date: Tue, 15 Nov 2022 22:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:28:14.715694
- Title: Operationalizing Digital Self Determination
- Title(参考訳): デジタル自己決定の運用
- Authors: Stefaan G. Verhulst
- Abstract要約: 生活はますます定量化され、民間または公共の利益のために知性へと変貌していく。
非対称性(例えば、同意)を制限する既存の方法には、目の前の課題に適切に対処する限界がある。
そのため、デジタル自己決定(DSD)の新しい原則と実践が必要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We live in an era of datafication, one in which life is increasingly
quantified and transformed into intelligence for private or public benefit.
When used responsibly, this offers new opportunities for public good. However,
three key forms of asymmetry currently limit this potential, especially for
already vulnerable and marginalized groups: data asymmetries, information
asymmetries, and agency asymmetries. These asymmetries limit human potential,
both in a practical and psychological sense, leading to feelings of
disempowerment and eroding public trust in technology. Existing methods to
limit asymmetries (e.g., consent) as well as some alternatives under
consideration (data ownership, collective ownership, personal information
management systems) have limitations to adequately address the challenges at
hand. A new principle and practice of digital self-determination (DSD) is
therefore required.
DSD is based on existing concepts of self-determination, as articulated in
sources as varied as Kantian philosophy and the 1966 International Covenant on
Economic, Social and Cultural Rights. Updated for the digital age, DSD contains
several key characteristics, including the fact that it has both an individual
and collective dimension; is designed to especially benefit vulnerable and
marginalized groups; and is context-specific (yet also enforceable).
Operationalizing DSD in this (and other) contexts so as to maximize the
potential of data while limiting its harms requires a number of steps. In
particular, a responsible operationalization of DSD would consider four key
prongs or categories of action: processes, people and organizations, policies,
and products and technologies.
- Abstract(参考訳): 生活はますます定量化され、民間または公共の利益のために知性へと変換される。
責任を持って使うと、公共の利益に新たな機会がもたらされる。
しかしながら、現在このポテンシャルを制限している3つの主要な非対称性、特にデータ非対称性、情報非対称性、機関非対称性である。
これらの非対称性は、実用的かつ心理的な意味で、人間の潜在能力を制限し、非エンパワーメントの感情と技術に対する大衆の信頼を損なう。
非対称性を制限する既存の方法(例えば、同意)と検討中のいくつかの選択肢(データ所有、集団所有、個人情報管理システム)には、目の前の課題に適切に対処するための制限がある。
そのため、デジタル自己決定(DSD)の新しい原則と実践が必要である。
DSDは、カント哲学や1966年の経済・社会・文化的権利に関する国際条約など様々な資料で説明されているように、既存の自己決定の概念に基づいている。
デジタル時代に向けて更新されたdsdには、個人と集団の両方の次元を持つという事実、特に脆弱で辺縁化されたグループに利益をもたらすように設計されたこと、コンテキスト固有の(強制可能である)ことなど、いくつかの重要な特徴が含まれている。
この(および他の)コンテキストでのDSDの運用は、データの可能性を最大化し、その害を抑えるためには、多くのステップが必要である。
特に、dsdの責任ある運用は、プロセス、人、組織、ポリシー、製品、技術という4つの主要なプロングまたはアクションのカテゴリを考慮すべきである。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - MaSS: Multi-attribute Selective Suppression [8.337285030303285]
本稿では,多属性選択抑制(Multi-Atribute Selective Suppression,MASS)を提案する。
MASSは2組のネットワーク間の対戦ゲームを通じてデータ修飾子を学習する。
本研究では,異なる領域の複数のデータセットを用いて提案手法の広範な評価を行った。
論文 参考訳(メタデータ) (2022-10-18T14:44:08Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Exosoul: ethical profiling in the digital world [3.6245424131171813]
Exosoulプロジェクトは、ユーザの道徳的嗜好に応じてデジタル世界でアクションを仲介するパーソナライズされたソフトウェアエクソスケルトンを開発することを目的としている。
このアプローチはハイブリッドで、まずトップダウンの方法でプロファイルを識別し、次にパーソナライズされたデータ駆動のアプローチでプロファイルを洗練する。
我々は倫理的立場(イデオロギーと相対主義)の性格特性(正直・謙虚、良心、マキアベリア主義とナルシシズム)と世界観(ノルマティビズム)の相関を考察する。
論文 参考訳(メタデータ) (2022-03-30T10:54:00Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Digital Twins: State of the Art Theory and Practice, Challenges, and
Open Research Questions [62.67593386796497]
この研究は、様々なDT機能と現在のアプローチ、デジタルツインの実装と導入の遅れの背景にある欠点と理由を探求する。
この遅延の主な理由は、普遍的な参照フレームワークの欠如、ドメイン依存、共有データのセキュリティ上の懸念、デジタルツインの他の技術への依存、定量的メトリクスの欠如である。
論文 参考訳(メタデータ) (2020-11-02T19:08:49Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Public Goods From Private Data -- An Efficacy and Justification Paradox
for Digital Contact Tracing [0.0]
プライバシ中心の分析は、データを私有財産として扱い、個人と政府の関係を敵とみなし、テクノロジープラットフォームをゲートキーパーとして定着させる。
倫理的かつ効果的なDCTの障壁を克服し、デジタル技術の公共的利益の実現を支援するインフラと政策を開発するためには、集約データの公開リソース概念を開発する必要がある。
論文 参考訳(メタデータ) (2020-07-14T13:08:29Z) - The Visual Social Distancing Problem [99.69094590087408]
画像から個人間距離を自動的に推定する視覚ソーシャルディスタンシング問題を提案する。
社会信号処理における過去の文献とVSDがどのように関連しているかを議論し、そのような問題を管理するために既存のコンピュータビジョン手法を用いているかを示す。
論文 参考訳(メタデータ) (2020-05-11T00:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。