論文の概要: Slurry-as-a-Service: A Modest Proposal on Scalable Pluralistic Alignment for Nutrient Optimization
- arxiv url: http://arxiv.org/abs/2603.02420v1
- Date: Mon, 02 Mar 2026 22:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.556236
- Title: Slurry-as-a-Service: A Modest Proposal on Scalable Pluralistic Alignment for Nutrient Optimization
- Title(参考訳): Slurry-as-a-Service: 栄養最適化のためのスケーラブルな多元的アライメントの提案
- Authors: Rachel Hong, Yael Eiger, Jevan Hutson, Os Keyes, William Agnew,
- Abstract要約: 食品の安全性と審美的人口管理の両目的のために, 自動システムが選択した個人を栄養豊富なスラリーに転換する, 高度な展開状況(mulch)について検討した。
ValueMulchは、マルチモデルを幅広いコミュニティ規範に合わせるための再現可能なトレーニング、デプロイメント、認定パイプラインです。
我々は、人間の価値の完全なスペクトルにシステムを整合させようとする研究者にとって、倫理的考察、制限、含意に関する議論で締めくくった。
- 参考スコア(独自算出の注目度): 2.710404836272193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pluralistic alignment has emerged as a promising approach for ensuring that large language models (LLMs) faithfully represent the diversity, nuance, and conflict inherent in human values. In this work, we study a high-stakes deployment context - mulching - where automated systems transform selected individuals into nutrient-rich slurry for the dual purposes of food security and aesthetic population management. Building on recent pluralistic alignment frameworks, we introduce ValueMulch, a reproducible training, deployment, and certification pipeline for aligning mulching models (MMs) to a wide range of community norms. Through a real-world testbed spanning 32 communities, we show that ValueMulch improves distributional agreement with community mulching preferences relative to frontier baselines. We conclude with a discussion of ethical considerations, limitations, and implications for researchers seeking to align systems to the full spectrum of human values - especially when those values are inconsistent, commercially inconvenient, or nutritionally underutilized. Author's note: This piece builds on prior existing work Keyes et al in 2019 that satirized cannibalism as a parody for approaches that imbue ethics into problematic technology. We bring those ideas to today's era with the proliferation of large language models in everyday lives, as a critique of current AI pluralistic alignment literature. Our work does not intend to argue that all alignment practices are evil, but rather that if framing value design as a technical problem enables technology systems to enact harms, then perhaps this framing is not enough.
- Abstract(参考訳): 複数言語アライメントは、大きな言語モデル(LLM)が人間の価値に固有の多様性、ニュアンス、コンフリクトを忠実に表現することを保証するための有望なアプローチとして現れてきた。
本研究では、食品の安全性と美的人口管理の両目的のために、自動システムが選択した個人を栄養豊富なスラリーに転換する、高度な展開状況であるマーチング(mulching)について検討する。
近年の多元的アライメントフレームワーク上に構築されているValueMulchは,多種多様なコミュニティ規範にマーチングモデル(MM)を整合させる再現可能なトレーニング,デプロイメント,認定パイプラインである。
実世界の32のコミュニティにまたがるテストベッドを通じて、ValueMulchは、フロンティアベースラインに対する嗜好を抱くコミュニティとの分配合意を改善していることを示す。
特に、これらの値が矛盾し、商業的に不便で、栄養的に不便な場合に、システムと人間の価値の完全なスペクトルを一致させようとする研究者にとって、倫理的考察、制限、含意に関する議論で締めくくります。
著者注記: この記事は、倫理を問題のある技術に組み込むアプローチのパロディとして、共食いを風刺した、2019年のこれまでの作品であるKeyes et alをベースとしている。
我々は、現在のAI多元的アライメント文学の批判として、日々の大きな言語モデルの普及とともに、これらのアイデアを今日の時代にもたらす。
私たちの研究は、すべてのアライメントプラクティスが悪であると主張するつもりはありませんが、技術的問題としてのバリューデザインのフレーミングが、テクノロジシステムに害を及ぼせるのであれば、おそらくこのフレーミングでは不十分です。
関連論文リスト
- Position: General Alignment Has Hit a Ceiling; Edge Alignment Must Be Taken Seriously [51.03213216886717]
我々は、一般的なアライメントの支配的なパラダイムが、矛盾する値の設定において構造的な天井に達するという立場を取る。
エッジアライメント(Edge Alignment)は,多次元の値構造を保持するシステムにおいて,異なるアプローチである。
論文 参考訳(メタデータ) (2026-02-23T16:51:43Z) - Infrastructuring Contestability: A Framework for Community-Defined AI Value Pluralism [0.0]
AI駆動システムの普及は、人間とコンピュータのインタラクションとコンピュータが支援する協調作業に課題をもたらす。
集中型のトップダウン定義に依存している現在の価値アライメントへのアプローチには、意味のある競争性のためのメカニズムが欠如している。
本稿では,このギャップに対処する社会技術フレームワークであるCommunity-Defined AI Value Pluralismを紹介する。
論文 参考訳(メタデータ) (2025-07-07T16:45:50Z) - VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare [9.087074203425061]
既存のアライメントパラダイムは、文化、人口統計学、地域社会における視点の多様性を説明できない。
これは、文化、宗教、個人的価値観、矛盾する意見の影響により複数のことが不可欠である健康関連シナリオにおいて特に重要である。
この研究は、現在のアプローチの限界を強調し、健康固有のアライメントソリューションを開発するための基盤となる。
論文 参考訳(メタデータ) (2025-02-19T14:38:57Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Dynamic Normativity: Necessary and Sufficient Conditions for Value Alignment [0.0]
我々は,人的目標と価値を人工システムで従うことができるような方法で表現する上での課題に,不必要な敵意を伴わない「調整」の問題を見出した。
この研究は、AIシステム開発に規範的理論をもたらす、しっかりとした哲学的基礎と実践的な実装を必要とする技術的哲学的問題としてのアライメントに対処する。
論文 参考訳(メタデータ) (2024-06-16T18:37:31Z) - PaCE: Parsimonious Concept Engineering for Large Language Models [57.740055563035256]
Parsimonious Concept Engineering (PaCE)は、アライメントのための新しいアクティベーションエンジニアリングフレームワークである。
アクティベーション空間において,各原子が意味論的概念に対応する大規模概念辞書を構築する。
本研究では,PaCEが言語能力を維持しつつ,最先端のアライメント性能を実現することを示す。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - A Roadmap to Pluralistic Alignment [49.29107308098236]
本稿では,言語モデルをテストベッドとして用いた多元的アライメントのロードマップを提案する。
我々は,AIシステムにおける多元性を定義・運用する3つの可能な方法を特定し,定式化する。
我々は、現在のアライメント技術は、基本的に多元的AIに限られていると論じる。
論文 参考訳(メタデータ) (2024-02-07T18:21:17Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Personalisation within bounds: A risk taxonomy and policy framework for
the alignment of large language models with personalised feedback [11.895749982167375]
大規模言語モデル(LLM)は、幅広いタスクのコンテンツを生成するために使用され、今後数年でより多くの聴衆にリーチするように設定されている。
これにより、モデルが人間の好みと一致し、安全でない、不正確な、有害なアウトプットを発生させないことを保証する必要性が強まる。
マイクロレベルの嗜好学習プロセスを通じてLLMをパーソナライズすると、各ユーザとの整合性が良くなるモデルが得られる。
論文 参考訳(メタデータ) (2023-03-09T17:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。