論文の概要: Attention to Non-Adopters
- arxiv url: http://arxiv.org/abs/2510.15951v1
- Date: Fri, 10 Oct 2025 18:00:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.471857
- Title: Attention to Non-Adopters
- Title(参考訳): 非無人機への留意
- Authors: Kaitlyn Zhou, Kristina Gligorić, Myra Cheng, Michelle S. Lam, Vyoma Raman, Boluwatife Aminu, Caeley Woo, Michael Brockman, Hannah Cha, Dan Jurafsky,
- Abstract要約: 2025年6月時点で、アメリカ人の66%がChatGPTを使用していなかった。
我々は,多目的かつ有能なLLMを開発するためには,非アドプタ視点を取り入れることが不可欠である,と論じている。
- 参考スコア(独自算出の注目度): 29.41142881032803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although language model-based chat systems are increasingly used in daily life, most Americans remain non-adopters of chat-based LLMs -- as of June 2025, 66% had never used ChatGPT. At the same time, LLM development and evaluation rely mainly on data from adopters (e.g., logs, preference data), focusing on the needs and tasks for a limited demographic group of adopters in terms of geographic location, education, and gender. In this position paper, we argue that incorporating non-adopter perspectives is essential for developing broadly useful and capable LLMs. We contend that relying on methods that focus primarily on adopters will risk missing a range of tasks and needs prioritized by non-adopters, entrenching inequalities in who benefits from LLMs, and creating oversights in model development and evaluation. To illustrate this claim, we conduct case studies with non-adopters and show: how non-adopter needs diverge from those of current users, how non-adopter needs point us towards novel reasoning tasks, and how to systematically integrate non-adopter needs via human-centered methods.
- Abstract(参考訳): 言語モデルベースのチャットシステムは日々の利用が増えているが、ほとんどのアメリカ人はチャットベースのLLMの非管理者であり、2025年6月時点で66%がChatGPTを使用していなかった。
同時に、LSMの開発と評価は、主に採用者(例えば、ログ、嗜好データ)のデータに依存し、地理的な位置、教育、性別の点で、限られた人口層グループに対するニーズとタスクに焦点を当てている。
本論文では, 汎用かつ有能なLCMを開発するためには, 非ドローンの視点を取り入れることが不可欠である,と論じる。
導入者を中心にした手法に頼ることは,非管理者が優先するタスクやニーズの欠如,LLMのメリットを享受する不平等の増大,モデル開発と評価の監督を生み出すリスクがある,と我々は主張する。
この主張を説明するために、我々は非ドローンとケーススタディを行い、非ドローンが現在のユーザーとどのように異なるか、非ドローンがいかに新しい推論タスクを指しているか、そして、人間中心の方法で非ドローンのニーズを体系的に統合するかを示す。
関連論文リスト
- From Calibration to Collaboration: LLM Uncertainty Quantification Should Be More Human-Centered [26.172036817406095]
大規模言語モデル(LLM)は、現実世界のユーザをますます支援していますが、その信頼性は依然として懸念されています。
LLMにおける不確実性定量化の現在の実践は、現実世界のタスクにおける意思決定に有用なUQを開発するのに最適ではない、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-09T06:10:04Z) - Open-Set Living Need Prediction with Large Language Models [49.9826719837983]
Meituanのようなライフサービスプラットフォームでは、ユーザー購入は生活ニーズによって駆動され、パーソナライズされたサービスレコメンデーションにとって、正確な生活ニーズ予測が不可欠である。
従来のアプローチでは、この予測をクローズドセットの分類問題として扱い、生活ニーズの多様性と複雑さを捉える能力を著しく制限している。
本稿では,大規模言語モデル(LLM)を利用した制約のないニーズ予測システムであるPIGEONを提案する。
現実世界のデータセットに関する大規模な実験では、PIGEONは平均19.37%の要求に基づくライフサービスリコールにおいて、クローズドセットのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-06-03T10:10:19Z) - MAPLE: A Framework for Active Preference Learning Guided by Large Language Models [9.37268652939886]
大規模言語モデルに基づくベイズ的能動的嗜好学習のためのフレームワークであるMAPLEを紹介する。
以上の結果から,MAPLEは学習過程を加速し,質問に答える能力を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-12-10T05:55:14Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Prevalence and prevention of large language model use in crowd work [11.554258761785512]
大規模言語モデル (LLM) の使用は, 集団作業者の間で広く普及していることを示す。
目標緩和戦略は, LLM の使用量を大幅に削減するが, 排除はしない。
論文 参考訳(メタデータ) (2023-10-24T09:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。