論文の概要: Large Language Models Enable Personalized Nudges to Promote Carbon Offsetting Among Air Travellers
- arxiv url: http://arxiv.org/abs/2508.12045v1
- Date: Sat, 16 Aug 2025 13:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.545172
- Title: Large Language Models Enable Personalized Nudges to Promote Carbon Offsetting Among Air Travellers
- Title(参考訳): 大規模言語モデルによる航空旅行者のカーボンオフセット促進のための個人化ナッジの実現
- Authors: Vladimir Maksimenko, Qingyao Xin, Prateek Gupta, Bin Zhang, Prateek Bansal,
- Abstract要約: ナッジ戦略は持続可能な行動を促進する効果的なツールであるが、その影響は個人の好みに依存する。
人間の意思決定をエミュレートすることで、大規模言語モデル(LLM)は、広範囲な行動データセットを使わずに、ヌードを調整するためのコスト効率の良いルートを提供する。
LLMを使って、航空旅行者が自発的に飛行機からCO$の排出を相殺することを奨励するパーソナライズされたデコイベースのナッジ戦略を設計します。
- 参考スコア(独自算出の注目度): 3.7501718326136726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nudge strategies are effective tools for promoting sustainable behaviour, but their impact depends on individual preferences. By emulating human decision-making, large language models (LLMs) offer a cost-effective route for tailoring nudges without extensive behavioural datasets, yet this potential remains unexplored. Focusing on aviation, we use LLMs to design personalized decoy-based nudge strategies that encourage air travellers to voluntarily offset CO$_2$ emissions from flights, and validate their efficacy through 3495 surveys from China, Germany, India, Singapore, and the United States. Results show that LLM-informed personalized nudges are more effective than uniform settings, raising offsetting rates by 3-7$\%$ and yielding an additional 2.3 million tonnes of CO$_2$ mitigated annually in aviation. This improvement is driven primarily by increased participation among sceptical travellers with low trust in offset programmes. Our study highlights the potential of LLM-driven personalized nudging strategies for boosting offsetting behaviours to accelerate aviation decarbonization.
- Abstract(参考訳): ナッジ戦略は持続可能な行動を促進する効果的なツールであるが、その影響は個人の好みに依存する。
人間の意思決定をエミュレートすることで、大きな言語モデル(LLM)は、広範囲な行動データセットを使わずに、ヌードを調整するためのコスト効率の良いルートを提供する。
LLMを使って、航空旅行者が自発的にCO$2ドルの排出をオフセットし、中国、ドイツ、インド、シンガポール、そして米国からの3495回の調査を通じて有効性を検証する、パーソナライズされたデコイベースのナッジ戦略を設計します。
結果、LCMのインフォームド・パーソナライズド・ナッジは均一な設定よりも有効であり、オフセットレートを3~7$$$%引き上げ、年間230万トンのCO$_2$を航空機で減らしていることがわかった。
この改善は、主に、オフセットプログラムへの信頼度が低い懐疑的な旅行者の間での参加の増加によるものである。
本研究は, 航空機の脱炭を促進させるために, オフセット動作を促進させるLLM駆動型パーソナライズナッジ戦略の可能性を強調した。
関連論文リスト
- Safe and Economical UAV Trajectory Planning in Low-Altitude Airspace: A Hybrid DRL-LLM Approach with Compliance Awareness [3.9471658054053806]
本稿では, 深層強化学習(DRL)と大言語モデル(LLM)の推論を組み合わせた新しいUAV軌道計画フレームワークを提案し, 安全性, 適合性, 経済的に実現可能な経路計画を実現する。
実験の結果,本手法は,データ収集率,衝突回避率,着陸成功率,規制遵守度,エネルギー効率など,複数の指標において,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-06-10T07:51:29Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Deep Reinforcement Learning for Real-Time Ground Delay Program Revision and Corresponding Flight Delay Assignments [24.09560293826079]
地上遅延プログラム(英語: Ground Delay Programs, GDP)は、航空交通管理(ATM)において、空港における容量の調整と不一致の要求に使用される一般的な交通管理イニシアチブである。
動作クローン(BC)と保守的Qラーニング(CQL)という2つのRLモデルを開発した。
これらのモデルは、地上および空中遅延と終端領域の混雑を統合した洗練された報酬関数を利用することで、GDP効率を向上させるように設計されている。
論文 参考訳(メタデータ) (2024-05-14T03:48:45Z) - Towards Green AI in Fine-tuning Large Language Models via Adaptive
Backpropagation [58.550710456745726]
ファインチューニングは、トレーニング済みの大規模言語モデル(LLM)を下流アプリケーションに適用する最も効果的な方法である。
既存の高速微調整技術は, FLOPの低減に限界がある。
本稿では,異なるテンソルのバックプロパゲーションコストを適応的に評価する新しい手法であるGreenTrainerについて述べる。
論文 参考訳(メタデータ) (2023-09-22T21:55:18Z) - A Cost Analysis of Generative Language Models and Influence Operations [0.0]
本研究は,大規模コンテンツ生成において,プロパガンダに直面するコストのモデルを構築した。
LLMがプロパガンディストに提供できる潜在的な貯蓄を分析します。
また、APIアクセス可能なLLMに対するモニタリングコントロールの潜在的な抑止効果も分析する。
論文 参考訳(メタデータ) (2023-08-07T17:38:41Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Helping Reduce Environmental Impact of Aviation with Machine Learning [19.162756764245497]
我々は、フライトプランナーがより良い情報を使って効率的なルートを見つけることができるように、風速予測を改善することを検討する。
第2に,目的地への最高速経路を探索する航空機のルーティング手法を提案する。
論文 参考訳(メタデータ) (2020-12-17T08:04:22Z) - Real-World Airline Crew Pairing Optimization: Customized Genetic
Algorithm versus Column Generation Method [0.0]
航空機乗組員ペアリング最適化問題(CPOP)は、航空会社の高度に制約された飛行スケジュールにおいて、最小限のコストで全フライトをカバーする一連のフライトシーケンスを見つけることを目的としている。
CPOPはNPハードであり、それに取り組むのは非常に難しい。
本稿ではドメイン知識駆動型カスタマイズGAを提案する。
論文 参考訳(メタデータ) (2020-03-08T15:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。