論文の概要: Choosing a Model, Shaping a Future: Comparing LLM Perspectives on Sustainability and its Relationship with AI
- arxiv url: http://arxiv.org/abs/2505.14435v1
- Date: Tue, 20 May 2025 14:41:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.368222
- Title: Choosing a Model, Shaping a Future: Comparing LLM Perspectives on Sustainability and its Relationship with AI
- Title(参考訳): モデル選択, 未来形成:持続可能性とAIとの関係に関するLCMの視点の比較
- Authors: Annika Bush, Meltem Aksoy, Markus Pauly, Greta Ontrup,
- Abstract要約: 本研究では,5つの最先端の大規模言語モデルが持続可能性とそのAIとの関係をいかに概念化しているかを体系的に検討する。
評価,持続可能性に関する質問紙調査を1モデルにつき100回ずつ実施し,反応パターンと変動性について検討した。
この結果から,モデル選択が組織的サステナビリティ戦略に大きく影響を与える可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As organizations increasingly rely on AI systems for decision support in sustainability contexts, it becomes critical to understand the inherent biases and perspectives embedded in Large Language Models (LLMs). This study systematically investigates how five state-of-the-art LLMs -- Claude, DeepSeek, GPT, LLaMA, and Mistral - conceptualize sustainability and its relationship with AI. We administered validated, psychometric sustainability-related questionnaires - each 100 times per model -- to capture response patterns and variability. Our findings revealed significant inter-model differences: For example, GPT exhibited skepticism about the compatibility of AI and sustainability, whereas LLaMA demonstrated extreme techno-optimism with perfect scores for several Sustainable Development Goals (SDGs). Models also diverged in attributing institutional responsibility for AI and sustainability integration, a results that holds implications for technology governance approaches. Our results demonstrate that model selection could substantially influence organizational sustainability strategies, highlighting the need for awareness of model-specific biases when deploying LLMs for sustainability-related decision-making.
- Abstract(参考訳): 組織は、サステナビリティコンテキストにおける意思決定支援にAIシステムに依存しているため、Large Language Models(LLMs)に埋め込まれた固有のバイアスと視点を理解することが重要になる。
この研究は、持続可能性とそのAIとの関係を概念化する5つの最先端LLM(Claude、DeepSeek、GPT、LLaMA、Mistral)を体系的に研究する。
1モデルにつき100回ずつ, 心理測定的サステナビリティに関する質問紙調査を実施し, 反応パターンと変動性について検討した。
例えば、GPTはAIの互換性と持続可能性に懐疑的を示し、LLaMAはいくつかの持続可能な開発目標(SDG)に対して完璧なスコアで極端にテクノ最適化を示した。
モデルはまた、AIとサステナビリティ統合の機関的責任に起因する。
本研究は,モデル選択が組織的持続可能性戦略に大きく影響することを示し,持続可能性に関する意思決定のためにLCMをデプロイする際のモデル固有のバイアスの認識の必要性を強調した。
関連論文リスト
- Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,5つのコアパラダイムにまたがるPoLMの進化を体系的に追跡する,最初の包括的調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Developmental Support Approach to AI's Autonomous Growth: Toward the Realization of a Mutually Beneficial Stage Through Experiential Learning [0.0]
本研究では,AI自体の倫理的発展を支援する「AI開発支援」アプローチを提案する。
我々は,経験,内観,分析,仮説形成のサイクルに基づく学習フレームワークを構築した。
論文 参考訳(メタデータ) (2025-02-27T06:12:20Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Literature Review of Current Sustainability Assessment Frameworks and
Approaches for Organizations [10.045497511868172]
本稿では,サステナビリティ・アセスメント・フレームワーク(SAF)を多種多様な産業に展開する。
本稿では,サステナビリティ・インジケータ(SI)の選択方法,相対的重要性評価,相互依存分析など,SAF設計のアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-07T18:14:52Z) - Assessing the Sustainability and Trustworthiness of Federated Learning Models [6.821579077084753]
欧州委員会のAI-HLEGグループは、信頼できるAIに対する持続可能なAIの重要性を強調した。
この研究は、信頼できるFL分類にサステナビリティの柱を導入し、AI-HLEGの要求に最初に対処する。
FLモデルの信頼性を評価するために,サステナビリティを考慮したアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-31T13:14:43Z) - Measuring and Improving Chain-of-Thought Reasoning in Vision-Language Models [61.28463542324576]
視覚言語モデル(VLM)は近年,人間のような出力を生成できる視覚アシスタントとして,強力な有効性を示している。
我々は、既存の最先端のVLMを評価し、最高の性能モデルでさえ、強力な視覚的推論能力と一貫性を示すことができないことを発見した。
本稿では,VLMの推論性能と一貫性の向上を目的とした2段階トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T17:49:44Z) - Broadening the perspective for sustainable AI: Comprehensive
sustainability criteria and indicators for AI systems [0.0]
本稿では,「持続可能なAI」に対する包括的視点の要求の実証に向けての一歩を踏み出す。
SCAIS Frameworkは、持続可能なAIと67の指標のための19の持続可能性基準を含んでいる。
論文 参考訳(メタデータ) (2023-06-22T18:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。