論文の概要: Decentralising LLM Alignment: A Case for Context, Pluralism, and Participation
- arxiv url: http://arxiv.org/abs/2509.08858v1
- Date: Tue, 09 Sep 2025 19:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.078737
- Title: Decentralising LLM Alignment: A Case for Context, Pluralism, and Participation
- Title(参考訳): LLMアライメントの分散化: 文脈・複数主義・参加の事例
- Authors: Oriane Peter, Kate Devlin,
- Abstract要約: 本稿は、現在行われているアライメントの実践が、影響力のある機関における知識生産とガバナンスの制御を集中化していることを論じる。
これに対応するために,文脈,多元性,参加性という3つの特徴を通じて,アライメントの分散化を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) alignment methods have been credited with the commercial success of products like ChatGPT, given their role in steering LLMs towards user-friendly outputs. However, current alignment techniques predominantly mirror the normative preferences of a narrow reference group, effectively imposing their values on a wide user base. Drawing on theories of the power/knowledge nexus, this work argues that current alignment practices centralise control over knowledge production and governance within already influential institutions. To counter this, we propose decentralising alignment through three characteristics: context, pluralism, and participation. Furthermore, this paper demonstrates the critical importance of delineating the context-of-use when shaping alignment practices by grounding each of these features in concrete use cases. This work makes the following contributions: (1) highlighting the role of context, pluralism, and participation in decentralising alignment; (2) providing concrete examples to illustrate these strategies; and (3) demonstrating the nuanced requirements associated with applying alignment across different contexts of use. Ultimately, this paper positions LLM alignment as a potential site of resistance against epistemic injustice and the erosion of democratic processes, while acknowledging that these strategies alone cannot substitute for broader societal changes.
- Abstract(参考訳): 大規模言語モデル(LLM)アライメント手法は、ユーザフレンドリーなアウトプットに向けてLLMを操縦する役割から、ChatGPTのような製品が商業的に成功していると評価されている。
しかし、現在のアライメント技術は主に狭い参照グループの規範的嗜好を反映しており、その価値を広いユーザベースで効果的に示している。
この研究は、パワー/知識のネクサスの理論に基づいて、現在のアライメントの実践が、既に影響力のある機関内での知識生産とガバナンスの制御を集中化させることを論じている。
これに対応するために,文脈,多元性,参加性という3つの特徴を通じて,アライメントの分散化を提案する。
さらに,これらの特徴を具体的ユースケースにおいて基礎づけることにより,アライメントの実践を形作る上で,コンテキスト・オブ・ユース(context-of-use)を規定することが重要であることを示す。
本研究は,(1)アライメントの分散化における文脈,多元性,役割の強調,(2)これらの戦略を説明する具体的事例の提供,(3)アライメントの異なる状況にまたがるアライメントの実施に関する曖昧な要求を示す。
本論文は, LLMアライメントを, 先天的不正や民主的プロセスの侵食に対する抵抗の場として位置づけるとともに, これらの戦略だけでは, より広範な社会的変化に代えてはならないことを認めた。
関連論文リスト
- Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Modeling Motivated Reasoning in Law: Evaluating Strategic Role Conditioning in LLM Summarization [44.55119228567464]
大規模言語モデル(LLM)は、ユーザに適した要約を生成するために、ますます使われています。
これは動機付け推論に関する重要な疑問を提起する。
我々は,LLMが異なる法的役割を条件づけたプロンプトにどのように反応するかを検討する。
論文 参考訳(メタデータ) (2025-08-30T15:22:47Z) - Identifying Algorithmic and Domain-Specific Bias in Parliamentary Debate Summarisation [13.982513887272683]
本稿では,欧州議会の議論を要約するために,大規模言語モデル(LLM)の利用について検討する。
本稿では,テキストのコヒーレンスと内容の忠実度を向上する構造化多段階要約フレームワークを提案する。
定位バイアスと党派バイアスが一貫した証拠が見つかり、一部の話者は体系的にあまり表現されていないか、あるいは誤分布している。
論文 参考訳(メタデータ) (2025-07-16T11:49:33Z) - Wide Reflective Equilibrium in LLM Alignment: Bridging Moral Epistemology and AI Safety [0.0]
本稿では,広反射平衡法(MWRE)は,現在のAIアライメントの取り組みを理解するための,一意に適応したフレームワークである,と論じる。
MWREは、道徳的判断、道徳的原則の導出、関連する背景理論の間の一貫性の達成を強調している。
この論文は、MWREが現在のアライメントの取り組みを批判的に分析し、より倫理的に健全で公正に整合したAIシステムの今後の発展を導く上で、貴重な基礎となることを実証している。
論文 参考訳(メタデータ) (2025-05-31T06:40:59Z) - Societal Alignment Frameworks Can Improve LLM Alignment [50.97852062232431]
LLMアライメントの改善には、社会的アライメントフレームワークからの洞察を取り入れる必要がある、と我々は主張する。
次に,LLMアライメントにおける社会的アライメント・フレームワークの不確実性について検討する。
我々は、LLMアライメントに関する代替的な見解を提供し、その目的の未定義の性質を機会としてフレーミングすることで、議論を終わらせる。
論文 参考訳(メタデータ) (2025-02-27T13:26:07Z) - RuleArena: A Benchmark for Rule-Guided Reasoning with LLMs in Real-World Scenarios [58.90106984375913]
RuleArenaは、大規模言語モデル(LLM)が推論において複雑な現実世界のルールに従う能力を評価するために設計された、新しくて挑戦的なベンチマークである。
航空会社の荷物手数料、NBA取引、税制の3つの実践的領域をカバーするルールアリーナは、複雑な自然言語命令を扱うのにLLMの習熟度を評価する。
論文 参考訳(メタデータ) (2024-12-12T06:08:46Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - The Empty Signifier Problem: Towards Clearer Paradigms for
Operationalising "Alignment" in Large Language Models [18.16062736448993]
本稿では,大規模言語モデル(LLM)における「アライメント」の概念を,ポスト構造主義社会政治理論のレンズを通して論じる。
1) モデル行動のどの次元が重要か,2) 意味と定義がこれらの次元にどのように分類されるか,といったことを議論する枠組みを提案する。
透明性と批判的評価の文化を育成し,LLMと人間集団の整合性の複雑さをコミュニティがナビゲートするのを支援することを目的としている。
論文 参考訳(メタデータ) (2023-10-03T22:02:17Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。