論文の概要: Large Language Models Enable Design of Personalized Nudges across Cultures
- arxiv url: http://arxiv.org/abs/2508.12045v2
- Date: Thu, 16 Oct 2025 12:33:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 16:37:10.464202
- Title: Large Language Models Enable Design of Personalized Nudges across Cultures
- Title(参考訳): 大規模言語モデルにより文化全体にわたるパーソナライズされたナッジの設計が可能に
- Authors: Vladimir Maksimenko, Qingyao Xin, Prateek Gupta, Bin Zhang, Prateek Bansal,
- Abstract要約: 大規模言語モデル (LLM) は、個々の固有のナッジの設計を容易にする。
LLMをインフォームしたパーソナライズされたナッジは、均一な設定よりも効果的である。
本研究は, ナッジ戦略の低費用試験場としてのLCMの可能性を明らかにするものである。
- 参考スコア(独自算出の注目度): 4.014969469283607
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nudge strategies are effective tools for influencing behaviour, but their impact depends on individual preferences. Strategies that work for some individuals may be counterproductive for others. We hypothesize that large language models (LLMs) can facilitate the design of individual-specific nudges without the need for costly and time-intensive behavioural data collection and modelling. To test this, we use LLMs to design personalized decoy-based nudges tailored to individual profiles and cultural contexts, aimed at encouraging air travellers to voluntarily offset CO$_2$ emissions from flights. We evaluate their effectiveness through a large-scale survey experiment ($n=3495$) conducted across five countries. Results show that LLM-informed personalized nudges are more effective than uniform settings, raising offsetting rates by 3-7$\%$ in Germany, Singapore, and the US, though not in China or India. Our study highlights the potential of LLM as a low-cost testbed for piloting nudge strategies. At the same time, cultural heterogeneity constrains their generalizability underscoring the need for combining LLM-based simulations with targeted empirical validation.
- Abstract(参考訳): ナッジ戦略は行動に影響を与える効果的なツールであるが、その影響は個人の好みに依存する。
ある個人のために働く戦略は、他の個人にとって非生産的かもしれない。
我々は,大規模言語モデル(LLM)が,コストと時間を要する行動データ収集やモデリングを必要とせずに,個別のナッジの設計を促進することができると仮定する。
これをテストするために、飛行士が自発的にCO$2$の排出をオフセットすることを奨励することを目的として、個人プロファイルや文化的文脈に合わせてパーソナライズされたデコイベースナッジを設計するためにLLMを使用する。
5カ国で実施した大規模調査実験(3495ドル)により,その有効性を評価した。
その結果, LLMインフォームド・パーソナライズド・ナッジは均一な設定よりも有効であり, 中国やインドではそうではないが, ドイツ, シンガポール, アメリカでは3~7$\%のオフセットレートが上昇した。
本研究は, ナッジ戦略の低費用試験場としてのLCMの可能性を明らかにするものである。
同時に、文化的不均一性は、LLMに基づくシミュレーションと目標とする実証的検証を組み合わせる必要性を、その一般化可能性に制約する。
関連論文リスト
- Safe and Economical UAV Trajectory Planning in Low-Altitude Airspace: A Hybrid DRL-LLM Approach with Compliance Awareness [3.9471658054053806]
本稿では, 深層強化学習(DRL)と大言語モデル(LLM)の推論を組み合わせた新しいUAV軌道計画フレームワークを提案し, 安全性, 適合性, 経済的に実現可能な経路計画を実現する。
実験の結果,本手法は,データ収集率,衝突回避率,着陸成功率,規制遵守度,エネルギー効率など,複数の指標において,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-06-10T07:51:29Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Deep Reinforcement Learning for Real-Time Ground Delay Program Revision and Corresponding Flight Delay Assignments [24.09560293826079]
地上遅延プログラム(英語: Ground Delay Programs, GDP)は、航空交通管理(ATM)において、空港における容量の調整と不一致の要求に使用される一般的な交通管理イニシアチブである。
動作クローン(BC)と保守的Qラーニング(CQL)という2つのRLモデルを開発した。
これらのモデルは、地上および空中遅延と終端領域の混雑を統合した洗練された報酬関数を利用することで、GDP効率を向上させるように設計されている。
論文 参考訳(メタデータ) (2024-05-14T03:48:45Z) - Towards Green AI in Fine-tuning Large Language Models via Adaptive
Backpropagation [58.550710456745726]
ファインチューニングは、トレーニング済みの大規模言語モデル(LLM)を下流アプリケーションに適用する最も効果的な方法である。
既存の高速微調整技術は, FLOPの低減に限界がある。
本稿では,異なるテンソルのバックプロパゲーションコストを適応的に評価する新しい手法であるGreenTrainerについて述べる。
論文 参考訳(メタデータ) (2023-09-22T21:55:18Z) - A Cost Analysis of Generative Language Models and Influence Operations [0.0]
本研究は,大規模コンテンツ生成において,プロパガンダに直面するコストのモデルを構築した。
LLMがプロパガンディストに提供できる潜在的な貯蓄を分析します。
また、APIアクセス可能なLLMに対するモニタリングコントロールの潜在的な抑止効果も分析する。
論文 参考訳(メタデータ) (2023-08-07T17:38:41Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Helping Reduce Environmental Impact of Aviation with Machine Learning [19.162756764245497]
我々は、フライトプランナーがより良い情報を使って効率的なルートを見つけることができるように、風速予測を改善することを検討する。
第2に,目的地への最高速経路を探索する航空機のルーティング手法を提案する。
論文 参考訳(メタデータ) (2020-12-17T08:04:22Z) - Real-World Airline Crew Pairing Optimization: Customized Genetic
Algorithm versus Column Generation Method [0.0]
航空機乗組員ペアリング最適化問題(CPOP)は、航空会社の高度に制約された飛行スケジュールにおいて、最小限のコストで全フライトをカバーする一連のフライトシーケンスを見つけることを目的としている。
CPOPはNPハードであり、それに取り組むのは非常に難しい。
本稿ではドメイン知識駆動型カスタマイズGAを提案する。
論文 参考訳(メタデータ) (2020-03-08T15:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。