論文の概要: Should I disclose my dataset? Caveats between reproducibility and
individual data rights
- arxiv url: http://arxiv.org/abs/2211.00498v1
- Date: Tue, 1 Nov 2022 14:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:12:33.656957
- Title: Should I disclose my dataset? Caveats between reproducibility and
individual data rights
- Title(参考訳): データセットを公開するべきか?
再現性と個人データ権利の関係
- Authors: Raysa M. Benatti, Camila M. L. Villarroel, Sandra Avila, Esther L.
Colombini, Fabiana C. Severi
- Abstract要約: 裁判所文書のデジタル利用は研究者の可能性を増大させる。
しかし、個人データ保護法は、データ露出に制限を課している。
我々は,この問題に関する法的・倫理的考察と研究者のガイドラインを提示する。
- 参考スコア(独自算出の注目度): 5.816090284071069
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Natural language processing techniques have helped domain experts solve legal
problems. Digital availability of court documents increases possibilities for
researchers, who can access them as a source for building datasets -- whose
disclosure is aligned with good reproducibility practices in computational
research. Large and digitized court systems, such as the Brazilian one, are
prone to be explored in that sense. However, personal data protection laws
impose restrictions on data exposure and state principles about which
researchers should be mindful. Special caution must be taken in cases with
human rights violations, such as gender discrimination, over which we elaborate
as an example of interest. We present legal and ethical considerations on the
issue, as well as guidelines for researchers dealing with this kind of data and
deciding whether to disclose it.
- Abstract(参考訳): 自然言語処理技術は、ドメインの専門家が法的問題を解決するのに役立った。
裁判所文書のデジタル公開は、研究者がデータセットを構築するための情報源としてアクセスできる可能性を高める。
ブラジルのような大規模でデジタル化された裁判所制度は、その意味で探索される傾向にある。
しかし、個人データ保護法は、研究者が留意すべきデータ露出と状態原則に制限を課している。
性差別などの人権侵害の場合には、特に注意が必要である。
我々は、この問題に関する法的および倫理的考察と、この種のデータを扱う研究者のガイドラインを提示し、それを開示するかどうかを判断する。
関連論文リスト
- Experimenting with Legal AI Solutions: The Case of Question-Answering for Access to Justice [32.550204238857724]
我々は、データソーシング、推論、評価を対象とする、人間中心の法的NLPパイプラインを提案する。
雇用法から刑事法まで、実際のおよび特定の法的問題を含むデータセット、LegalQAをリリースする。
列車セット内の850個の引用のみからの検索増強生成は、インターネット全体の検索に適合または優れることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:40:28Z) - Gender Bias Detection in Court Decisions: A Brazilian Case Study [4.948270494088624]
ブラジルポルトガル語の裁判所判決において,ジェンダーバイアスを自動的に検出する実験的な枠組みを提案する。
コートアクティビティの研究・評価のための支援ツールとして提案されていることから,このような技術において重要な特徴を識別する。
論文 参考訳(メタデータ) (2024-06-01T10:34:15Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Pile of Law: Learning Responsible Data Filtering from the Law and a
256GB Open-Source Legal Dataset [46.156169284961045]
我々は, フィルター材料におけるトレードオフに直接対処する法則に基づくフィルタリングへのアプローチを提案する。
まず、256GBのオープンソース英語および行政データのデータセットであるPile of Lawを収集、利用可能にします。
第二に、政府が有毒または私的コンテンツを含めることを規制するために開発した法規範を精査する。
第3に、Pile of Lawが研究者に、このようなフィルタリングルールを直接データから学習する機会を提供する方法を示します。
論文 参考訳(メタデータ) (2022-07-01T06:25:15Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。