論文の概要: Getting In Contract with Large Language Models -- An Agency Theory Perspective On Large Language Model Alignment
- arxiv url: http://arxiv.org/abs/2509.07642v1
- Date: Tue, 09 Sep 2025 12:10:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.295953
- Title: Getting In Contract with Large Language Models -- An Agency Theory Perspective On Large Language Model Alignment
- Title(参考訳): 大規模言語モデルとの契約 -大規模言語モデルアライメントに関するエージェンシー理論の視点-
- Authors: Sascha Kaltenpoth, Oliver Müller,
- Abstract要約: 組織における大規模言語モデル(LLM)は、私たちの生活や仕事に革命をもたらす可能性があります。
それらは、オフトピー的、差別的、有害なコンテンツを生成できる。
このAIアライメント問題は、LLM導入時の誤特定に起因することが多い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adopting Large language models (LLMs) in organizations potentially revolutionizes our lives and work. However, they can generate off-topic, discriminating, or harmful content. This AI alignment problem often stems from misspecifications during the LLM adoption, unnoticed by the principal due to the LLM's black-box nature. While various research disciplines investigated AI alignment, they neither address the information asymmetries between organizational adopters and black-box LLM agents nor consider organizational AI adoption processes. Therefore, we propose LLM ATLAS (LLM Agency Theory-Led Alignment Strategy) a conceptual framework grounded in agency (contract) theory, to mitigate alignment problems during organizational LLM adoption. We conduct a conceptual literature analysis using the organizational LLM adoption phases and the agency theory as concepts. Our approach results in (1) providing an extended literature analysis process specific to AI alignment methods during organizational LLM adoption and (2) providing a first LLM alignment problem-solution space.
- Abstract(参考訳): 大規模言語モデル(LLM)を組織に導入することは、私たちの生活や仕事に革命をもたらす可能性がある。
しかし、それらは、オフトピー、差別、有害なコンテンツを生成することができる。
このAIアライメント問題は、LLMのブラックボックスの性質が原因でプリンシパルに気付かれず、LLM導入時の誤特定に起因することが多い。
さまざまな研究分野がAIのアライメントを調査したが、組織的採用者とブラックボックスのLLMエージェント間の情報対称性には対処せず、組織的なAI採用プロセスも考慮していない。
そこで我々は, LLM導入時のアライメント問題を緩和するため, LLM ATLAS (LLM Agency Theory-Led Alignment Strategy) を提案する。
組織的LLM導入フェーズとエージェント理論を概念として,概念文献分析を行う。
その結果,(1)組織LLM導入時にAIアライメントに特有の文献分析プロセスを提供し,(2)第一のLLMアライメント問題解決空間を提供する。
関連論文リスト
- A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Societal Alignment Frameworks Can Improve LLM Alignment [50.97852062232431]
LLMアライメントの改善には、社会的アライメントフレームワークからの洞察を取り入れる必要がある、と我々は主張する。
次に,LLMアライメントにおける社会的アライメント・フレームワークの不確実性について検討する。
我々は、LLMアライメントに関する代替的な見解を提供し、その目的の未定義の性質を機会としてフレーミングすることで、議論を終わらせる。
論文 参考訳(メタデータ) (2025-02-27T13:26:07Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Prompting Fairness: Integrating Causality to Debias Large Language Models [19.76215433424235]
大規模言語モデル(LLM)は偏見や差別的な反応を生じさせる可能性がある。
社会的偏見に対処するための因果性誘導型脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:46:28Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.068035947969044]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。