論文の概要: Just What do You Think You're Doing, Dave?' A Checklist for Responsible
Data Use in NLP
- arxiv url: http://arxiv.org/abs/2109.06598v1
- Date: Tue, 14 Sep 2021 11:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:56:58.574586
- Title: Just What do You Think You're Doing, Dave?' A Checklist for Responsible
Data Use in NLP
- Title(参考訳): 何をしているんだ、デイブ?」
NLPにおける応答性データ利用のチェックリスト
- Authors: Anna Rogers, Tim Baldwin, Kobi Leins
- Abstract要約: 本論では,テキストデータの収集と共有に関する法的・倫理的原則と,それら間の緊張関係について論じる。
我々は、会議提出のピアレビューを標準化すると同時に、公表された研究のより詳細なビューを可能にする責任のあるデータ(再使用)の潜在的なチェックリストを提案する。
- 参考スコア(独自算出の注目度): 6.3596637237946725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key part of the NLP ethics movement is responsible use of data, but exactly
what that means or how it can be best achieved remain unclear. This position
paper discusses the core legal and ethical principles for collection and
sharing of textual data, and the tensions between them. We propose a potential
checklist for responsible data (re-)use that could both standardise the peer
review of conference submissions, as well as enable a more in-depth view of
published research across the community. Our proposal aims to contribute to the
development of a consistent standard for data (re-)use, embraced across NLP
conferences.
- Abstract(参考訳): NLP倫理運動の重要な部分は、データの使用に責任があるが、それが正確には何を意味するのか、どのように達成できるかは、まだ不明である。
本稿では,テキストデータの収集と共有に関する法的・倫理的原則と,それらの間の緊張関係について論じる。
我々は,カンファレンスの参加者のピアレビューを標準化し,コミュニティ全体の公開研究をより深く見ることのできる,責任あるデータ(再使用)のための潜在的チェックリストを提案する。
我々の提案は,NLPカンファレンスを通じて採用されているデータ(再使用)の一貫性のある標準の開発に寄与することを目的としている。
関連論文リスト
- What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - Reproducibility in NLP: What Have We Learned from the Checklist? [48.86370747121637]
CLカンファレンスは2020年にNLP再現性チェックリストを作成した。
10,405件の匿名応答を調べることで,チェックリストを初めて解析する。
新たなデータを収集する申請件の44%は、受理される可能性が5%低いことがわかりました。
論文 参考訳(メタデータ) (2023-06-16T00:39:25Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z) - Link Prediction on N-ary Relational Data Based on Relatedness Evaluation [61.61555159755858]
我々は,n-aryリレーショナルデータ上でリンク予測を行うNaLPという手法を提案する。
各 n 個の関係事実を、その役割と役割と値のペアの集合として表現する。
実験結果は,提案手法の有効性と有用性を検証した。
論文 参考訳(メタデータ) (2021-04-21T09:06:54Z) - Give Me Convenience and Give Her Death: Who Should Decide What Uses of
NLP are Appropriate, and on What Basis? [40.75458460149429]
我々は,NLP研究において,データセットとタスクがオフリミットと見なされるべきかどうかを論じる。
特に、倫理的評価研究におけるデータステートメントの役割に焦点を当てる。
我々は、他の科学分野における同様の議論の結果について検討する。
論文 参考訳(メタデータ) (2020-05-27T07:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。