論文の概要: Alignment Debt: The Hidden Work of Making AI Usable
- arxiv url: http://arxiv.org/abs/2511.09663v1
- Date: Fri, 14 Nov 2025 01:02:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.40015
- Title: Alignment Debt: The Hidden Work of Making AI Usable
- Title(参考訳): アライメント負債:AIを使えるものにするための隠れた仕事
- Authors: Cumi Oyemike, Elizabeth Akpan, Pierre Hervé-Berdys,
- Abstract要約: このアライメント負債は、AIシステムが文化的、言語的、インフラ的、または疫学的な文脈と整合しない場合に生じるユーザー側の負担である。
我々はケニアとナイジェリアの411人のAIユーザーを対象に、アライメント負債の4つの分類法を開発し、検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frontier LLMs are optimised around high-resource assumptions about language, knowledge, devices, and connectivity. Whilst widely accessible, they often misfit conditions in the Global South. As a result, users must often perform additional work to make these systems usable. We term this alignment debt: the user-side burden that arises when AI systems fail to align with cultural, linguistic, infrastructural, or epistemic contexts. We develop and validate a four-part taxonomy of alignment debt through a survey of 411 AI users in Kenya and Nigeria. Among respondents measurable on this taxonomy (n = 385), prevalence is: Cultural and Linguistic (51.9%), Infrastructural (43.1%), Epistemic (33.8%), and Interaction (14.0%). Country comparisons show a divergence in Infrastructural and Interaction debt, challenging one-size-fits-Africa assumptions. Alignment debt is associated with compensatory labour, but responses vary by debt type: users facing Epistemic challenges verify outputs at significantly higher rates (91.5% vs. 80.8%; p = 0.037), and verification intensity correlates with cumulative debt burden (Spearmans rho = 0.147, p = 0.004). In contrast, Infrastructural and Interaction debts show weak or null associations with verification, indicating that some forms of misalignment cannot be resolved through verification alone. These findings show that fairness must be judged not only by model metrics but also by the burden imposed on users at the margins, compelling context-aware safeguards that alleviate alignment debt in Global South settings. The alignment debt framework provides an empirically grounded way to measure user burden, informing both design practice and emerging African AI governance efforts.
- Abstract(参考訳): Frontier LLMは、言語、知識、デバイス、接続性に関する高リソースの仮定を中心に最適化されている。
広くアクセス可能であるが、グローバル・サウスでは条件が不適切であることが多い。
結果として、ユーザーはこれらのシステムを利用できるようにするために追加の作業を行う必要がある。
このアライメント負債は、AIシステムが文化的、言語的、インフラ的、または疫学的な文脈と整合しない場合に生じるユーザー側の負担である。
我々はケニアとナイジェリアの411人のAIユーザーを対象に、アライメント負債の4つの分類法を開発し、検証した。
この分類について測定可能な回答者(n = 385)は、文化と言語(51.9%)、インフラ(43.1%)、疫学(33.8%)、相互作用(14.0%)である。
国別比較では、インフラと相互作用の負債が多様であり、アフリカにおける一つの規模の仮定に挑戦している。
調整債務は補償労働に関連付けられているが、債務タイプによって反応は異なる: 疫学的な課題に直面しているユーザは、はるかに高いレート(91.5%対80.8%; p = 0.037)で出力を検証し、検証強度は累積債務負担と相関する(Spearmans rho = 0.147, p = 0.004)。
対照的に、インフラと相互作用の負債は検証と弱いかヌルな関連性を示しており、検証だけではある種の不一致は解決できないことを示している。
これらの結果から, 公正性は, モデル指標だけでなく, 利用者に課される負担や, グローバル・サウスにおけるアライメント債務を緩和する, 説得力のあるコンテキストアウェア・セーフガードによって判断されなければならないことが示唆された。
アライメント負債フレームワークは、設計プラクティスと新興アフリカのAIガバナンスの取り組みの両方に報いる、ユーザの負担を測定するための経験的に根底にある方法を提供する。
関連論文リスト
- Scaling Truth: The Confidence Paradox in AI Fact-Checking [0.8201655885319955]
大規模言語モデル(LLM)は事実検証の自動化を約束するが、グローバルな文脈での有効性は不確実である。
我々はこれまでに47言語174のファクトチェック組織で評価された5000のクレームを用いて,複数のカテゴリにまたがる9つの確立されたLCMを体系的に評価した。
より小さいモデルでは精度が低いにもかかわらず高い信頼性を示す一方、より大きなモデルは高い精度を示すが、信頼性は低い。
論文 参考訳(メタデータ) (2025-09-10T17:36:25Z) - Language Models and Logic Programs for Trustworthy Financial Reasoning [50.73061215297832]
税の申告には複雑な推論が必要であり、重複ルールの適用と数値計算を組み合わせる必要がある。
そこで我々は,LLMを象徴的解決器と統合して納税義務を計算する手法を提案する。
本稿では, 形式論理プログラムの事前翻訳と, 形式論理表現の知的検索例を組み合わせることで, 性能が劇的に向上することを示す。
論文 参考訳(メタデータ) (2025-08-28T17:55:07Z) - FRED: Financial Retrieval-Enhanced Detection and Editing of Hallucinations in Language Models [1.9894117371899613]
大規模言語モデルにおける幻覚は、事実的信頼性を必要とするアプリケーションにとって重要な課題である。
本研究は,モデル生成応答における事実的誤りコンテンツの検出と編集に有効な手法を提案する。
論文 参考訳(メタデータ) (2025-07-28T15:41:53Z) - False consensus biases AI against vulnerable stakeholders [0.8754707197790144]
我々は,請求者と非請求者の人口における速度精度トレードオフの公的な受容性について検討する。
本総説では, 請求者と非請求人の相違を目立たせるために, 速度利得のトレードオフを図っている。
論文 参考訳(メタデータ) (2024-05-17T14:33:47Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - How Platform-User Power Relations Shape Algorithmic Accountability: A
Case Study of Instant Loan Platforms and Financially Stressed Users in India [16.415169392641026]
インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。
即時融資の「報奨」に対して,利用者が過度に不信感を感じていることが判明した。
ローンプラットフォームに激怒する代わりに、ユーザはネガティブな経験に対して責任を負った。
論文 参考訳(メタデータ) (2022-05-11T17:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。