論文の概要: Large Language Models Enable Design of Personalized Nudges across Cultures
- arxiv url: http://arxiv.org/abs/2508.12045v2
- Date: Thu, 16 Oct 2025 12:33:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 16:37:10.464202
- Title: Large Language Models Enable Design of Personalized Nudges across Cultures
- Title(参考訳): 大規模言語モデルにより文化全体にわたるパーソナライズされたナッジの設計が可能に
- Authors: Vladimir Maksimenko, Qingyao Xin, Prateek Gupta, Bin Zhang, Prateek Bansal,
- Abstract要約: 大規模言語モデル (LLM) は、個々の固有のナッジの設計を容易にする。
LLMをインフォームしたパーソナライズされたナッジは、均一な設定よりも効果的である。
本研究は, ナッジ戦略の低費用試験場としてのLCMの可能性を明らかにするものである。
- 参考スコア(独自算出の注目度): 4.014969469283607
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nudge strategies are effective tools for influencing behaviour, but their impact depends on individual preferences. Strategies that work for some individuals may be counterproductive for others. We hypothesize that large language models (LLMs) can facilitate the design of individual-specific nudges without the need for costly and time-intensive behavioural data collection and modelling. To test this, we use LLMs to design personalized decoy-based nudges tailored to individual profiles and cultural contexts, aimed at encouraging air travellers to voluntarily offset CO$_2$ emissions from flights. We evaluate their effectiveness through a large-scale survey experiment ($n=3495$) conducted across five countries. Results show that LLM-informed personalized nudges are more effective than uniform settings, raising offsetting rates by 3-7$\%$ in Germany, Singapore, and the US, though not in China or India. Our study highlights the potential of LLM as a low-cost testbed for piloting nudge strategies. At the same time, cultural heterogeneity constrains their generalizability underscoring the need for combining LLM-based simulations with targeted empirical validation.
- Abstract(参考訳): ナッジ戦略は行動に影響を与える効果的なツールであるが、その影響は個人の好みに依存する。
ある個人のために働く戦略は、他の個人にとって非生産的かもしれない。
我々は,大規模言語モデル(LLM)が,コストと時間を要する行動データ収集やモデリングを必要とせずに,個別のナッジの設計を促進することができると仮定する。
これをテストするために、飛行士が自発的にCO$2$の排出をオフセットすることを奨励することを目的として、個人プロファイルや文化的文脈に合わせてパーソナライズされたデコイベースナッジを設計するためにLLMを使用する。
5カ国で実施した大規模調査実験(3495ドル)により,その有効性を評価した。
その結果, LLMインフォームド・パーソナライズド・ナッジは均一な設定よりも有効であり, 中国やインドではそうではないが, ドイツ, シンガポール, アメリカでは3~7$\%のオフセットレートが上昇した。
本研究は, ナッジ戦略の低費用試験場としてのLCMの可能性を明らかにするものである。
同時に、文化的不均一性は、LLMに基づくシミュレーションと目標とする実証的検証を組み合わせる必要性を、その一般化可能性に制約する。
関連論文リスト
- Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs [53.07843733899881]
大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
論文 参考訳(メタデータ) (2025-09-25T12:28:25Z) - ALIGN: Word Association Learning for Cross-Cultural Generalization in Large Language Models [0.8999666725996975]
文化的な知識が限られているため、文化をモデル化し、調整することは依然として課題である。
本稿では,母語話者の自由な単語連想規範をパラメータ効率で微調整する手法を提案する。
私たちの研究は、数百万の文化に根ざした協会が、コストのかかる再トレーニングなしに価値アライメントを組み込むことができることを示している。
論文 参考訳(メタデータ) (2025-08-19T00:55:20Z) - Pay What LLM Wants: Can LLM Simulate Economics Experiment with 522 Real-human Persona? [1.931250555574267]
実際の522人の人物を用いたPay-What-You-Want価格設定実験を用いて,大規模言語モデルによる個人経済意思決定の予測能力を評価する。
その結果、LSMは正確な個人レベルの予測に苦しむ一方で、合理的なグループレベルの行動傾向を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-05T09:37:37Z) - Safe and Economical UAV Trajectory Planning in Low-Altitude Airspace: A Hybrid DRL-LLM Approach with Compliance Awareness [3.9471658054053806]
本稿では, 深層強化学習(DRL)と大言語モデル(LLM)の推論を組み合わせた新しいUAV軌道計画フレームワークを提案し, 安全性, 適合性, 経済的に実現可能な経路計画を実現する。
実験の結果,本手法は,データ収集率,衝突回避率,着陸成功率,規制遵守度,エネルギー効率など,複数の指標において,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-06-10T07:51:29Z) - Efficient Data Selection at Scale via Influence Distillation [53.03573620682107]
本稿では,データ選択のための数学的に修飾されたフレームワークであるインフルエンス蒸留を紹介する。
対象分布に対する各試料の影響を蒸留することにより,トレーニングデータの選択に使用されるモデル固有の重みを割り当てる。
実験の結果、蒸留の影響は最先端のパフォーマンスに匹敵し、最大3.5タイムの高速選択を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-25T09:08:00Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Evaluating Cultural Adaptability of a Large Language Model via Simulation of Synthetic Personas [4.0937229334408185]
我々は、GPT-3.5を用いて、15カ国7,286人の参加者の説得的ニュース記事に対する反応を再現する。
対象者の居住国を特定することで,GPT-3.5の対応性の向上が期待できる。
対照的に、ネイティブ言語プロンプトを使用すると、全体的なアライメントを大幅に削減するシフトが発生する。
論文 参考訳(メタデータ) (2024-08-13T14:32:43Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Deep Reinforcement Learning for Real-Time Ground Delay Program Revision and Corresponding Flight Delay Assignments [24.09560293826079]
地上遅延プログラム(英語: Ground Delay Programs, GDP)は、航空交通管理(ATM)において、空港における容量の調整と不一致の要求に使用される一般的な交通管理イニシアチブである。
動作クローン(BC)と保守的Qラーニング(CQL)という2つのRLモデルを開発した。
これらのモデルは、地上および空中遅延と終端領域の混雑を統合した洗練された報酬関数を利用することで、GDP効率を向上させるように設計されている。
論文 参考訳(メタデータ) (2024-05-14T03:48:45Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z) - CultureLLM: Incorporating Cultural Differences into Large Language Models [36.66184989869121]
CultureLLMは、大きな言語モデルに文化的差異を組み込むためのコスト効率の良いソリューションである。
我々は、リッチで低リソースな言語をカバーする9つの文化に対して、文化固有のLLMと1つの統一モデル(CultureLLM-One)を微調整する。
我々の人間による研究は、生成されたサンプルが元のサンプルと意味的に等価であることを示している。
論文 参考訳(メタデータ) (2024-02-09T04:02:43Z) - On Diversified Preferences of Large Language Model Alignment [51.26149027399505]
本稿では,様々な大きさの報酬モデルに対する実験スケーリング法則の定量的解析を行った。
分析の結果,ヒトの嗜好の多様化による影響は,モデルサイズとデータサイズの両方に依存することが明らかとなった。
十分なキャパシティを持つ大きなモデルでは、さまざまな好みによるネガティブな影響が軽減される一方、より小さなモデルはそれらに対応するのに苦労する。
論文 参考訳(メタデータ) (2023-12-12T16:17:15Z) - Tokenizer Choice For LLM Training: Negligible or Crucial? [30.33170936148845]
24個の単言語LLMと多言語LLMを学習し,トークン化選択が大規模言語モデル(LLM)の下流性能に与える影響について検討した。
トークン化ツールの選択は、ダウンストリームのパフォーマンスとトレーニングコストに大きな影響を与えます。
ヨーロッパの5言語で訓練された多言語トークン化器は,英語と比較して語彙サイズが3倍に大きくなることが示唆された。
論文 参考訳(メタデータ) (2023-10-12T22:44:19Z) - Towards Green AI in Fine-tuning Large Language Models via Adaptive
Backpropagation [58.550710456745726]
ファインチューニングは、トレーニング済みの大規模言語モデル(LLM)を下流アプリケーションに適用する最も効果的な方法である。
既存の高速微調整技術は, FLOPの低減に限界がある。
本稿では,異なるテンソルのバックプロパゲーションコストを適応的に評価する新しい手法であるGreenTrainerについて述べる。
論文 参考訳(メタデータ) (2023-09-22T21:55:18Z) - A Cost Analysis of Generative Language Models and Influence Operations [0.0]
本研究は,大規模コンテンツ生成において,プロパガンダに直面するコストのモデルを構築した。
LLMがプロパガンディストに提供できる潜在的な貯蓄を分析します。
また、APIアクセス可能なLLMに対するモニタリングコントロールの潜在的な抑止効果も分析する。
論文 参考訳(メタデータ) (2023-08-07T17:38:41Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Helping Reduce Environmental Impact of Aviation with Machine Learning [19.162756764245497]
我々は、フライトプランナーがより良い情報を使って効率的なルートを見つけることができるように、風速予測を改善することを検討する。
第2に,目的地への最高速経路を探索する航空機のルーティング手法を提案する。
論文 参考訳(メタデータ) (2020-12-17T08:04:22Z) - Real-World Airline Crew Pairing Optimization: Customized Genetic
Algorithm versus Column Generation Method [0.0]
航空機乗組員ペアリング最適化問題(CPOP)は、航空会社の高度に制約された飛行スケジュールにおいて、最小限のコストで全フライトをカバーする一連のフライトシーケンスを見つけることを目的としている。
CPOPはNPハードであり、それに取り組むのは非常に難しい。
本稿ではドメイン知識駆動型カスタマイズGAを提案する。
論文 参考訳(メタデータ) (2020-03-08T15:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。