論文の概要: Advancing Data Equity: Practitioner Responsibility and Accountability in NLP Data Practices
- arxiv url: http://arxiv.org/abs/2508.10071v2
- Date: Sat, 16 Aug 2025 15:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 12:43:44.900801
- Title: Advancing Data Equity: Practitioner Responsibility and Accountability in NLP Data Practices
- Title(参考訳): データ等価性の向上:NLPデータ実践における実践者責任と説明責任
- Authors: Jay L. Cunningham, Kevin Zhongyang Shao, Rock Yuren Pang, Nathaniel Mengist,
- Abstract要約: この研究は、実践者の視点を中心として、自身の経験をマルチスカラーなAIガバナンスフレームワークにリンクする最初のもののひとつです。
我々は,米国を基盤とするNLPデータ実践者が公正性を概念化し,組織的・体系的な制約と競合し,新たなガバナンス活動に従事する方法を検討する。
- 参考スコア(独自算出の注目度): 4.687326419790091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While research has focused on surfacing and auditing algorithmic bias to ensure equitable AI development, less is known about how NLP practitioners - those directly involved in dataset development, annotation, and deployment - perceive and navigate issues of NLP data equity. This study is among the first to center practitioners' perspectives, linking their experiences to a multi-scalar AI governance framework and advancing participatory recommendations that bridge technical, policy, and community domains. Drawing on a 2024 questionnaire and focus group, we examine how U.S.-based NLP data practitioners conceptualize fairness, contend with organizational and systemic constraints, and engage emerging governance efforts such as the U.S. AI Bill of Rights. Findings reveal persistent tensions between commercial objectives and equity commitments, alongside calls for more participatory and accountable data workflows. We critically engage debates on data diversity and diversity washing, arguing that improving NLP equity requires structural governance reforms that support practitioner agency and community consent.
- Abstract(参考訳): 公正なAI開発を保証するためにアルゴリズムバイアスを表面化し、監査することに注力しているが、データセット開発、アノテーション、デプロイメントに直接関与するNLP実践者が、NLPデータエクイティの問題を知覚し、ナビゲートする方法については、あまり知られていない。
この研究は、実践者の視点の中心となる最初のもののひとつであり、彼らの経験をマルチスカラーなAIガバナンスフレームワークにリンクし、技術、ポリシー、コミュニティドメインを橋渡しする参加レコメンデーションを推進している。
2024年のアンケートと焦点グループに基づいて、米国を基盤としたNLPデータ実践者が公正性を概念化し、組織的および体系的な制約と競合し、米国AI権利章のような新たなガバナンス活動に従事する方法について検討する。
発見は、より参加的で説明責任のあるデータワークフローを要求するとともに、商業目的とエクイティコミットメントの間の永続的な緊張関係を明らかにします。
我々は、データ多様性と多様性の洗浄に関する議論に批判的であり、NLP株式の改善には実践機関とコミュニティの同意を支援する構造的ガバナンスの改革が必要であると論じている。
関連論文リスト
- Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - Bottom-Up Perspectives on AI Governance: Insights from User Reviews of AI Products [0.0]
本研究は,ガバナンス関連テーマをユーザ談話でどのように表現するかをボトムアップで検討する。
G2.comの10万以上のAI製品のユーザレビューに基づいて、BERTopicを適用して、潜伏したテーマを抽出し、AIガバナンスに関連する最も意味のあるものを特定する。
論文 参考訳(メタデータ) (2025-05-30T01:33:21Z) - Diversity and Inclusion in AI: Insights from a Survey of AI/ML Practitioners [4.761639988815896]
人工知能(AI)システムに埋め込まれた社会的バイアスや不平等に対する認識が高まり、AIライフサイクル全体を通して多様性と包摂性(D&I)の原則の統合に注意が向けられている。
倫理的AIガイドラインの台頭にもかかわらず、現実世界の環境でのD&Iの適用方法に関する実証的な証拠は限られている。
この研究は、AIと機械学習(ML)の実践者がD&Iの原則をどう理解し、実践し、効果的導入を妨げる組織的課題を特定するかを探る。
論文 参考訳(メタデータ) (2025-05-24T05:40:23Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Addressing Bias in Generative AI: Challenges and Research Opportunities in Information Management [3.9775368901759207]
ジェネレーティブAI技術は情報管理システムを変革してきたが、ビジネス上の意思決定を伝える上での有効性を損なう可能性のある、実質的なバイアスを導入した。
この課題は、大規模言語モデル(LLM)の幅広い応用にまたがって、これらのバイアスを特定し、対処することで、情報管理学者に分野を前進させるユニークな機会を与える。
倫理的考察、政策含意、社会技術的視点を取り入れることで、我々は、生成型AIシステムの主要な利害関係者をカバーし、重要な研究課題を提案し、議論を刺激するフレームワークの開発に注力する。
論文 参考訳(メタデータ) (2025-01-22T10:14:31Z) - Preliminary Insights on Industry Practices for Addressing Fairness Debt [4.546982900370235]
本研究は,ソフトウェア業界のAIシステムにおいて,ソフトウェアプロフェッショナルがバイアスを特定し,対処する方法について検討する。
本稿では,公正性負債に関する最初の証拠を提示し,AIシステムにおける公平性に関連する問題を管理するための構造化ガイドラインの開発基盤を提供する。
論文 参考訳(メタデータ) (2024-09-04T04:18:42Z) - A Survey on Knowledge Distillation of Large Language Models [99.11900233108487]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Assessing the Fairness of AI Systems: AI Practitioners' Processes,
Challenges, and Needs for Support [18.148737010217953]
私たちは、実践者のプロセス、課題、サポートの必要性を特定するために、AI実践者とのインタビューとワークショップを行っています。
パフォーマンス指標を選択し、最も関連する直接的な利害関係者や人口統計グループを特定する際に、実践者が課題に直面していることに気付きました。
私たちは、直接利害関係者との関わりの欠如、疎外されたグループよりも顧客を優先するビジネスインペラティブ、大規模にAIシステムをデプロイする動機から生じる公正な作業への影響を特定します。
論文 参考訳(メタデータ) (2021-12-10T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。