論文の概要: A Detailed Study on LLM Biases Concerning Corporate Social Responsibility and Green Supply Chains
- arxiv url: http://arxiv.org/abs/2511.01840v1
- Date: Mon, 03 Nov 2025 18:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.377349
- Title: A Detailed Study on LLM Biases Concerning Corporate Social Responsibility and Green Supply Chains
- Title(参考訳): 企業社会責任とグリーンサプライチェーンに関するLCMバイアスに関する詳細研究
- Authors: Greta Ontrup, Annika Bush, Markus Pauly, Meltem Aksoy,
- Abstract要約: 本研究では,大規模言語モデルの違いが,ビジネスにおける倫理と責任の役割に関する評価調査にどのように反応するかを検討する。
4種類の組織文化タイプで差異が増すか否かを評価し, 偏見の実践的妥当性を評価する。
- 参考スコア(独自算出の注目度): 6.8883812743678865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations increasingly use Large Language Models (LLMs) to improve supply chain processes and reduce environmental impacts. However, LLMs have been shown to reproduce biases regarding the prioritization of sustainable business strategies. Thus, it is important to identify underlying training data biases that LLMs pertain regarding the importance and role of sustainable business and supply chain practices. This study investigates how different LLMs respond to validated surveys about the role of ethics and responsibility for businesses, and the importance of sustainable practices and relations with suppliers and customers. Using standardized questionnaires, we systematically analyze responses generated by state-of-the-art LLMs to identify variations. We further evaluate whether differences are augmented by four organizational culture types, thereby evaluating the practical relevance of identified biases. The findings reveal significant systematic differences between models and demonstrate that organizational culture prompts substantially modify LLM responses. The study holds important implications for LLM-assisted decision-making in sustainability contexts.
- Abstract(参考訳): 組織は、サプライチェーンプロセスを改善し、環境への影響を低減するために、Large Language Models (LLMs) をますます利用しています。
しかし、LCMは持続可能なビジネス戦略の優先順位付けに関するバイアスを再現することが示されている。
したがって、LCMが持続可能なビジネスとサプライチェーンの実践の重要性と役割に関係している基礎となるトレーニングデータのバイアスを特定することが重要である。
本研究では,企業における倫理と責任の役割,持続的な実践の重要性,サプライヤーや顧客との関係について,LCMが評価された調査にどう反応するかを検討する。
標準化されたアンケートを用いて,現状のLCMが生み出す応答を系統的に分析し,バリエーションを同定する。
さらに,4つの組織文化タイプによって差異が増すか否かを検証し,偏見の実践的妥当性を評価する。
これらの結果から, 組織文化がLLM反応を著しく変化させることを示す。
本研究は、持続可能性文脈におけるLCMによる意思決定に重要な意味を持つ。
関連論文リスト
- Alignment Revisited: Are Large Language Models Consistent in Stated and Revealed Preferences? [5.542420010310746]
批判的だが、未調査の問題は、LLMが明記した嗜好と明らかにした嗜好との潜在的な相違である。
この研究は正式に定義され、この選好偏差を測定する方法を提案する。
我々の研究は、LDMをサービス、特に人間と直接対話するサービスに統合するために不可欠です。
論文 参考訳(メタデータ) (2025-05-31T23:38:48Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values [13.798198972161657]
多くの社会的問題は資源の分配に関係しており、公平さと経済効率は結果の望ましさにおいて重要な役割を担っている。
本稿では,大規模言語モデル (LLM) が基本的公平性の概念に準拠しているかどうかを考察し,人間の嗜好との整合性について検討する。
論文 参考訳(メタデータ) (2025-02-01T04:24:47Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。