論文の概要: When Assurance Undermines Intelligence: The Efficiency Costs of Data Governance in AI-Enabled Labor Markets
- arxiv url: http://arxiv.org/abs/2511.01923v1
- Date: Sun, 02 Nov 2025 05:35:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.592392
- Title: When Assurance Undermines Intelligence: The Efficiency Costs of Data Governance in AI-Enabled Labor Markets
- Title(参考訳): 保証がインテリジェンスを弱める時-AI可能な労働市場におけるデータガバナンスの効率コスト
- Authors: Lei Chen, Chaoyue Gao, Alvin Leung, Xiaoning Wang,
- Abstract要約: データ使用制限はGenAI効率を著しく低下させ、マッチング率の低下、従業員の転職率の向上、労働市場の摩擦の増大につながった。
我々の発見は、意図しないデータガバナンスの効率コストを明らかにし、情報保証が信頼に不可欠であるにもかかわらず、AIシステム設計とミスマッチした場合、インテリジェンス駆動の効率を損なう可能性があることを強調した。
- 参考スコア(独自算出の注目度): 5.3700224653806865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence (GenAI) like Large Language Model (LLM) is increasingly integrated into digital platforms to enhance information access, deliver personalized experiences, and improve matching efficiency. However, these algorithmic advancements rely heavily on large-scale user data, creating a fundamental tension between information assurance-the protection, integrity, and responsible use of privacy data-and artificial intelligence-the learning capacity and predictive accuracy of models. We examine this assurance-intelligence trade-off in the context of LinkedIn, leveraging a regulatory intervention that suspended the use of user data for model training in Hong Kong. Using large-scale employment and job posting data from Revelio Labs and a Difference-in-Differences design, we show that restricting data use significantly reduced GenAI efficiency, leading to lower matching rates, higher employee turnover, and heightened labor market frictions. These effects were especially pronounced for small and fast-growing firms that rely heavily on AI for talent acquisition. Our findings reveal the unintended efficiency costs of well-intentioned data governance and highlight that information assurance, while essential for trust, can undermine intelligence-driven efficiency when misaligned with AI system design. This study contributes to emerging research on AI governance and digital platform by theorizing data assurance as an institutional complement-and potential constraint-to GenAI efficacy in data-intensive environments.
- Abstract(参考訳): 大規模言語モデル(LLM)のような生成人工知能(GenAI)は、情報アクセスを強化し、パーソナライズされたエクスペリエンスを提供し、マッチング効率を向上させるために、デジタルプラットフォームにますます統合されている。
しかし、これらのアルゴリズムの進歩は、大規模なユーザーデータに大きく依存し、情報保証、保護、完全性、プライバシデータと人工知能の責任ある使用、学習能力とモデルの予測精度の間に根本的な緊張を生み出す。
この保証・知性トレードオフをLinkedInの文脈で検討し、香港でのモデルトレーニングにおけるユーザデータの使用を停止する規制介入を活用する。
Revelio Labsの大規模雇用と求職データと差分差分設計を用いて、データ使用制限によりGenAI効率が大幅に低下し、マッチング率の低下、従業員の転職率の向上、労働市場の摩擦の増大が示された。
これらの効果は、人材獲得のためにAIに大きく依存している小規模で急成長している企業にとって特に顕著だった。
我々の発見は、意図しないデータガバナンスの効率コストを明らかにし、情報保証が信頼に不可欠であるにもかかわらず、AIシステム設計とミスマッチした場合、インテリジェンス駆動の効率を損なう可能性があることを強調した。
この研究は、データ集約環境において、データ保証を制度的補完的および潜在的制約-GenAIの有効性として理論化することにより、AIガバナンスとデジタルプラットフォームに関する新たな研究に寄与する。
関連論文リスト
- What's the next frontier for Data-centric AI? Data Savvy Agents [71.76058707995398]
我々は、エージェントシステムの設計において、データに精通する能力が最優先すべきであると主張している。
本稿では,このビジョンを実現するための4つの重要な機能を提案する。プロアクティブデータ取得,ソフシフィケートデータ処理,インタラクティブテストデータ合成,連続的適応。
論文 参考訳(メタデータ) (2025-11-02T17:09:29Z) - Improving AI Efficiency in Data Centres by Power Dynamic Response [74.12165648170894]
近年、人工知能(AI)の着実に成長が加速し、洗練されたモデルの開発が進められている。
AIの潜在能力を最大限に活用するためには、堅牢で信頼性の高い電力インフラの確保が不可欠だ。
しかし、AIデータセンターは電力に非常に飢えており、彼らの電力管理の問題が注目されている。
論文 参考訳(メタデータ) (2025-10-13T08:08:21Z) - Autonomous Data Agents: A New Opportunity for Smart Data [50.02229219403014]
DataAgentsは、自律的なデータから知識システムへのパラダイムシフトを表している、とReportは主張する。
DataAgentsは、複雑で非構造化されたデータをコヒーレントで行動可能な知識に変換する。
エージェントAIとデータ・トゥ・ナレッジシステムの収束が重要なトレンドとなっている理由を最初に検討する。
論文 参考訳(メタデータ) (2025-09-23T06:46:41Z) - From Machine Learning to Machine Unlearning: Complying with GDPR's Right to be Forgotten while Maintaining Business Value of Predictive Models [9.380866972744633]
この研究は、Ensemble-based iTerative Information Distillation (ETID)と呼ばれる、総合的な機械学習から学習へのフレームワークを開発する。
ETIDには、データ消去要求の処理を容易にする正確な予測モデルを構築するための、新しいアンサンブル学習手法が組み込まれている。
また, 効率的かつ効率的なデータ消去を実現するために, 構築されたアンサンブルモデルに適した, 蒸留に基づく未学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T05:42:46Z) - Accuracy of training data and model outputs in Generative AI: CREATe Response to the Information Commissioner Office Consultation [6.699484354380871]
CREATeは、生成AIの正確性に関する証拠を求めるICOの呼びかけを歓迎している。
私たちは、データ保護法とAI規制の側面を強調して喜んでいます。
論文 参考訳(メタデータ) (2024-05-30T10:34:49Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Social and Governance Implications of Improved Data Efficiency [0.0]
本稿では,データ効率の向上による社会的・経済的影響について考察する。
プライバシー、データ市場、堅牢性、誤用に対する影響は複雑である。
論文 参考訳(メタデータ) (2020-01-14T22:26:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。