論文の概要: Should I disclose my dataset? Caveats between reproducibility and
individual data rights
- arxiv url: http://arxiv.org/abs/2211.00498v1
- Date: Tue, 1 Nov 2022 14:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:12:33.656957
- Title: Should I disclose my dataset? Caveats between reproducibility and
individual data rights
- Title(参考訳): データセットを公開するべきか?
再現性と個人データ権利の関係
- Authors: Raysa M. Benatti, Camila M. L. Villarroel, Sandra Avila, Esther L.
Colombini, Fabiana C. Severi
- Abstract要約: 裁判所文書のデジタル利用は研究者の可能性を増大させる。
しかし、個人データ保護法は、データ露出に制限を課している。
我々は,この問題に関する法的・倫理的考察と研究者のガイドラインを提示する。
- 参考スコア(独自算出の注目度): 5.816090284071069
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Natural language processing techniques have helped domain experts solve legal
problems. Digital availability of court documents increases possibilities for
researchers, who can access them as a source for building datasets -- whose
disclosure is aligned with good reproducibility practices in computational
research. Large and digitized court systems, such as the Brazilian one, are
prone to be explored in that sense. However, personal data protection laws
impose restrictions on data exposure and state principles about which
researchers should be mindful. Special caution must be taken in cases with
human rights violations, such as gender discrimination, over which we elaborate
as an example of interest. We present legal and ethical considerations on the
issue, as well as guidelines for researchers dealing with this kind of data and
deciding whether to disclose it.
- Abstract(参考訳): 自然言語処理技術は、ドメインの専門家が法的問題を解決するのに役立った。
裁判所文書のデジタル公開は、研究者がデータセットを構築するための情報源としてアクセスできる可能性を高める。
ブラジルのような大規模でデジタル化された裁判所制度は、その意味で探索される傾向にある。
しかし、個人データ保護法は、研究者が留意すべきデータ露出と状態原則に制限を課している。
性差別などの人権侵害の場合には、特に注意が必要である。
我々は、この問題に関する法的および倫理的考察と、この種のデータを扱う研究者のガイドラインを提示し、それを開示するかどうかを判断する。
関連論文リスト
- Legally Binding but Unfair? Towards Assessing Fairness of Privacy
Policies [0.0]
本稿では,プライバシポリシの公平性を評価するためのアプローチについて概説する。
我々は、基本的な法的根拠と公正性の研究から、情報的公正性、表現的公正性、倫理/道徳がプライバシーポリシーとどのように関係しているかを識別する。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
論文 参考訳(メタデータ) (2024-03-12T22:53:32Z) - SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - Balancing Privacy and Progress in Artificial Intelligence: Anonymization
in Histopathology for Biomedical Research and Education [1.8078387709049526]
医療データを“可能な限りオープン”に転送することは、患者のプライバシにリスクをもたらす。
既存の規制は、再識別リスクを避けるため、医療データを「必要に応じてクローズド」し続けるよう推進している。
本稿では,医療データ共有に関する法的規制と用語について考察する。
論文 参考訳(メタデータ) (2023-07-18T16:53:07Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Pile of Law: Learning Responsible Data Filtering from the Law and a
256GB Open-Source Legal Dataset [46.156169284961045]
我々は, フィルター材料におけるトレードオフに直接対処する法則に基づくフィルタリングへのアプローチを提案する。
まず、256GBのオープンソース英語および行政データのデータセットであるPile of Lawを収集、利用可能にします。
第二に、政府が有毒または私的コンテンツを含めることを規制するために開発した法規範を精査する。
第3に、Pile of Lawが研究者に、このようなフィルタリングルールを直接データから学習する機会を提供する方法を示します。
論文 参考訳(メタデータ) (2022-07-01T06:25:15Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Online publication of court records: circumventing the
privacy-transparency trade-off [0.0]
法律データへの大規模なアクセスに対処するには,現在のプラクティスが不十分である,と我々は主張する。
本稿では,プライバシ保護法定データパブリッシングシステムへの道を切り開く,ストローマンマルチモーダルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-03T13:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。