論文の概要: Large Language Models Enable Personalized Nudges to Promote Carbon Offsetting Among Air Travellers
- arxiv url: http://arxiv.org/abs/2508.12045v1
- Date: Sat, 16 Aug 2025 13:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.545172
- Title: Large Language Models Enable Personalized Nudges to Promote Carbon Offsetting Among Air Travellers
- Title(参考訳): 大規模言語モデルによる航空旅行者のカーボンオフセット促進のための個人化ナッジの実現
- Authors: Vladimir Maksimenko, Qingyao Xin, Prateek Gupta, Bin Zhang, Prateek Bansal,
- Abstract要約: ナッジ戦略は持続可能な行動を促進する効果的なツールであるが、その影響は個人の好みに依存する。
人間の意思決定をエミュレートすることで、大規模言語モデル(LLM)は、広範囲な行動データセットを使わずに、ヌードを調整するためのコスト効率の良いルートを提供する。
LLMを使って、航空旅行者が自発的に飛行機からCO$の排出を相殺することを奨励するパーソナライズされたデコイベースのナッジ戦略を設計します。
- 参考スコア(独自算出の注目度): 3.7501718326136726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nudge strategies are effective tools for promoting sustainable behaviour, but their impact depends on individual preferences. By emulating human decision-making, large language models (LLMs) offer a cost-effective route for tailoring nudges without extensive behavioural datasets, yet this potential remains unexplored. Focusing on aviation, we use LLMs to design personalized decoy-based nudge strategies that encourage air travellers to voluntarily offset CO$_2$ emissions from flights, and validate their efficacy through 3495 surveys from China, Germany, India, Singapore, and the United States. Results show that LLM-informed personalized nudges are more effective than uniform settings, raising offsetting rates by 3-7$\%$ and yielding an additional 2.3 million tonnes of CO$_2$ mitigated annually in aviation. This improvement is driven primarily by increased participation among sceptical travellers with low trust in offset programmes. Our study highlights the potential of LLM-driven personalized nudging strategies for boosting offsetting behaviours to accelerate aviation decarbonization.
- Abstract(参考訳): ナッジ戦略は持続可能な行動を促進する効果的なツールであるが、その影響は個人の好みに依存する。
人間の意思決定をエミュレートすることで、大きな言語モデル(LLM)は、広範囲な行動データセットを使わずに、ヌードを調整するためのコスト効率の良いルートを提供する。
LLMを使って、航空旅行者が自発的にCO$2ドルの排出をオフセットし、中国、ドイツ、インド、シンガポール、そして米国からの3495回の調査を通じて有効性を検証する、パーソナライズされたデコイベースのナッジ戦略を設計します。
結果、LCMのインフォームド・パーソナライズド・ナッジは均一な設定よりも有効であり、オフセットレートを3~7$$$%引き上げ、年間230万トンのCO$_2$を航空機で減らしていることがわかった。
この改善は、主に、オフセットプログラムへの信頼度が低い懐疑的な旅行者の間での参加の増加によるものである。
本研究は, 航空機の脱炭を促進させるために, オフセット動作を促進させるLLM駆動型パーソナライズナッジ戦略の可能性を強調した。
関連論文リスト
- Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs [53.07843733899881]
大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
論文 参考訳(メタデータ) (2025-09-25T12:28:25Z) - ALIGN: Word Association Learning for Cross-Cultural Generalization in Large Language Models [0.8999666725996975]
文化的な知識が限られているため、文化をモデル化し、調整することは依然として課題である。
本稿では,母語話者の自由な単語連想規範をパラメータ効率で微調整する手法を提案する。
私たちの研究は、数百万の文化に根ざした協会が、コストのかかる再トレーニングなしに価値アライメントを組み込むことができることを示している。
論文 参考訳(メタデータ) (2025-08-19T00:55:20Z) - Pay What LLM Wants: Can LLM Simulate Economics Experiment with 522 Real-human Persona? [1.931250555574267]
実際の522人の人物を用いたPay-What-You-Want価格設定実験を用いて,大規模言語モデルによる個人経済意思決定の予測能力を評価する。
その結果、LSMは正確な個人レベルの予測に苦しむ一方で、合理的なグループレベルの行動傾向を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-05T09:37:37Z) - Safe and Economical UAV Trajectory Planning in Low-Altitude Airspace: A Hybrid DRL-LLM Approach with Compliance Awareness [3.9471658054053806]
本稿では, 深層強化学習(DRL)と大言語モデル(LLM)の推論を組み合わせた新しいUAV軌道計画フレームワークを提案し, 安全性, 適合性, 経済的に実現可能な経路計画を実現する。
実験の結果,本手法は,データ収集率,衝突回避率,着陸成功率,規制遵守度,エネルギー効率など,複数の指標において,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-06-10T07:51:29Z) - Efficient Data Selection at Scale via Influence Distillation [53.03573620682107]
本稿では,データ選択のための数学的に修飾されたフレームワークであるインフルエンス蒸留を紹介する。
対象分布に対する各試料の影響を蒸留することにより,トレーニングデータの選択に使用されるモデル固有の重みを割り当てる。
実験の結果、蒸留の影響は最先端のパフォーマンスに匹敵し、最大3.5タイムの高速選択を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-25T09:08:00Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Evaluating Cultural Adaptability of a Large Language Model via Simulation of Synthetic Personas [4.0937229334408185]
我々は、GPT-3.5を用いて、15カ国7,286人の参加者の説得的ニュース記事に対する反応を再現する。
対象者の居住国を特定することで,GPT-3.5の対応性の向上が期待できる。
対照的に、ネイティブ言語プロンプトを使用すると、全体的なアライメントを大幅に削減するシフトが発生する。
論文 参考訳(メタデータ) (2024-08-13T14:32:43Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Deep Reinforcement Learning for Real-Time Ground Delay Program Revision and Corresponding Flight Delay Assignments [24.09560293826079]
地上遅延プログラム(英語: Ground Delay Programs, GDP)は、航空交通管理(ATM)において、空港における容量の調整と不一致の要求に使用される一般的な交通管理イニシアチブである。
動作クローン(BC)と保守的Qラーニング(CQL)という2つのRLモデルを開発した。
これらのモデルは、地上および空中遅延と終端領域の混雑を統合した洗練された報酬関数を利用することで、GDP効率を向上させるように設計されている。
論文 参考訳(メタデータ) (2024-05-14T03:48:45Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z) - CultureLLM: Incorporating Cultural Differences into Large Language Models [36.66184989869121]
CultureLLMは、大きな言語モデルに文化的差異を組み込むためのコスト効率の良いソリューションである。
我々は、リッチで低リソースな言語をカバーする9つの文化に対して、文化固有のLLMと1つの統一モデル(CultureLLM-One)を微調整する。
我々の人間による研究は、生成されたサンプルが元のサンプルと意味的に等価であることを示している。
論文 参考訳(メタデータ) (2024-02-09T04:02:43Z) - On Diversified Preferences of Large Language Model Alignment [51.26149027399505]
本稿では,様々な大きさの報酬モデルに対する実験スケーリング法則の定量的解析を行った。
分析の結果,ヒトの嗜好の多様化による影響は,モデルサイズとデータサイズの両方に依存することが明らかとなった。
十分なキャパシティを持つ大きなモデルでは、さまざまな好みによるネガティブな影響が軽減される一方、より小さなモデルはそれらに対応するのに苦労する。
論文 参考訳(メタデータ) (2023-12-12T16:17:15Z) - Tokenizer Choice For LLM Training: Negligible or Crucial? [30.33170936148845]
24個の単言語LLMと多言語LLMを学習し,トークン化選択が大規模言語モデル(LLM)の下流性能に与える影響について検討した。
トークン化ツールの選択は、ダウンストリームのパフォーマンスとトレーニングコストに大きな影響を与えます。
ヨーロッパの5言語で訓練された多言語トークン化器は,英語と比較して語彙サイズが3倍に大きくなることが示唆された。
論文 参考訳(メタデータ) (2023-10-12T22:44:19Z) - Towards Green AI in Fine-tuning Large Language Models via Adaptive
Backpropagation [58.550710456745726]
ファインチューニングは、トレーニング済みの大規模言語モデル(LLM)を下流アプリケーションに適用する最も効果的な方法である。
既存の高速微調整技術は, FLOPの低減に限界がある。
本稿では,異なるテンソルのバックプロパゲーションコストを適応的に評価する新しい手法であるGreenTrainerについて述べる。
論文 参考訳(メタデータ) (2023-09-22T21:55:18Z) - A Cost Analysis of Generative Language Models and Influence Operations [0.0]
本研究は,大規模コンテンツ生成において,プロパガンダに直面するコストのモデルを構築した。
LLMがプロパガンディストに提供できる潜在的な貯蓄を分析します。
また、APIアクセス可能なLLMに対するモニタリングコントロールの潜在的な抑止効果も分析する。
論文 参考訳(メタデータ) (2023-08-07T17:38:41Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Helping Reduce Environmental Impact of Aviation with Machine Learning [19.162756764245497]
我々は、フライトプランナーがより良い情報を使って効率的なルートを見つけることができるように、風速予測を改善することを検討する。
第2に,目的地への最高速経路を探索する航空機のルーティング手法を提案する。
論文 参考訳(メタデータ) (2020-12-17T08:04:22Z) - Real-World Airline Crew Pairing Optimization: Customized Genetic
Algorithm versus Column Generation Method [0.0]
航空機乗組員ペアリング最適化問題(CPOP)は、航空会社の高度に制約された飛行スケジュールにおいて、最小限のコストで全フライトをカバーする一連のフライトシーケンスを見つけることを目的としている。
CPOPはNPハードであり、それに取り組むのは非常に難しい。
本稿ではドメイン知識駆動型カスタマイズGAを提案する。
論文 参考訳(メタデータ) (2020-03-08T15:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。