論文の概要: Evaluating Intra-firm LLM Alignment Strategies in Business Contexts
- arxiv url: http://arxiv.org/abs/2505.18779v1
- Date: Sat, 24 May 2025 16:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:54:05.815564
- Title: Evaluating Intra-firm LLM Alignment Strategies in Business Contexts
- Title(参考訳): ビジネスコンテキストにおけるILMアライメント戦略の評価
- Authors: Noah Broestl, Benjamin Lange, Cristina Voinea, Geoff Keeling, Rachael Lam,
- Abstract要約: 大規模言語モデル(LLM)は、認知タスクをサポートするために企業のAIアシスタントとして、ますます多くデプロイされている。
本稿は、企業がこれらのAIアシスタントの視点と目的と価値を意図的に一致させなければならない、と論じる。
- 参考スコア(独自算出の注目度): 0.11224172067715701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction-tuned Large Language Models (LLMs) are increasingly deployed as AI Assistants in firms for support in cognitive tasks. These AI assistants carry embedded perspectives which influence factors across the firm including decision-making, collaboration, and organizational culture. This paper argues that firms must align the perspectives of these AI Assistants intentionally with their objectives and values, framing alignment as a strategic and ethical imperative crucial for maintaining control over firm culture and intra-firm moral norms. The paper highlights how AI perspectives arise from biases in training data and the fine-tuning objectives of developers, and discusses their impact and ethical significance, foregrounding ethical concerns like automation bias and reduced critical thinking. Drawing on normative business ethics, particularly non-reductionist views of professional relationships, three distinct alignment strategies are proposed: supportive (reinforcing the firm's mission), adversarial (stress-testing ideas), and diverse (broadening moral horizons by incorporating multiple stakeholder views). The ethical trade-offs of each strategy and their implications for manager-employee and employee-employee relationships are analyzed, alongside the potential to shape the culture and moral fabric of the firm.
- Abstract(参考訳): インストラクションチューニングされた大規模言語モデル(LLM)は、認知タスクを支援するために、企業内のAIアシスタントとしてますます多くデプロイされている。
これらのAIアシスタントは、意思決定、コラボレーション、組織文化など、企業全体の要因に影響を与える組み込みの視点を持っている。
この論文では、企業は、これらのAIアシスタントの視点を目的や価値観と意図的に一致させ、堅固な文化のコントロールを維持し、道徳的規範を実証するために不可欠な戦略的かつ倫理的な規範としてアライメントをフレーミングする必要があると論じている。
この記事では、AIの視点が、トレーニングデータのバイアスと開発者の微調整の目的からどのように生じるかを強調し、その影響と倫理的重要性について論じ、自動化バイアスや批判的思考の低減といった倫理的懸念を先導する。
規範的ビジネス倫理、特に非還元主義的な専門家関係の見解に基づいて、3つの異なるアライメント戦略が提案されている: 支援的(会社のミッションを補強する)、敵対的(ストレステストのアイデア)、多様(複数のステークホルダーの視点を組み込むことで道徳的地平線を広げる)。
各戦略の倫理的トレードオフと、経営者-雇用者関係および従業員-雇用者関係への影響を分析し、企業の文化と道徳的構造を形成する可能性について分析する。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Towards an Ethical and Inclusive Implementation of Artificial Intelligence in Organizations: A Multidimensional Framework [0.0]
本稿では,現代社会における人工知能の影響と,組織内における倫理的アプローチの採用の重要性を考察する。
政府、学術、市民社会などの様々な俳優は、人間と社会の価値観に沿ったAIの発展を形作る役割を担っている。
論文 参考訳(メタデータ) (2024-05-02T19:43:51Z) - Hacia una implementación ética e inclusiva de la Inteligencia Artificial en las organizaciones: un marco multidimensional [0.0]
本稿は、人工知能が現代社会に与える影響と、組織内におけるその発展と実践に倫理的アプローチを採用することの重要性を分析したものである。
政府、学術、市民社会などの様々な俳優は、人間や社会的価値観に沿ったAIの発展を形作る役割を担っている。
論文 参考訳(メタデータ) (2024-04-30T22:11:05Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - The Ethics of AI Value Chains [0.6138671548064356]
AI倫理に関心を持つ研究者、実践者、政策立案者は、AIシステムの研究と介入にもっと統合的なアプローチを必要とする。
我々は、戦略的管理、サービス科学、経済地理学、産業、政府、応用研究文献から、バリューチェーンとAIバリューチェーンの理論をレビューする。
我々は、研究者、実践者、政策立案者がAIバリューチェーン全体にわたってより倫理的なプラクティスを進めることができる3つの今後の方向性を推奨します。
論文 参考訳(メタデータ) (2023-07-31T15:55:30Z) - Walking the Walk of AI Ethics: Organizational Challenges and the
Individualization of Risk among Ethics Entrepreneurs [0.0]
労働者は、政策、プラクティス、成果が分離された環境を経験する。
我々は、AI倫理労働者を、組織内で新しい倫理関連プラクティスを制度化するために働く倫理起業家として分析する。
論文 参考訳(メタデータ) (2023-05-16T16:11:24Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。