論文の概要: Decoding Alignment: A Critical Survey of LLM Development Initiatives through Value-setting and Data-centric Lens
- arxiv url: http://arxiv.org/abs/2508.16982v1
- Date: Sat, 23 Aug 2025 10:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.279998
- Title: Decoding Alignment: A Critical Survey of LLM Development Initiatives through Value-setting and Data-centric Lens
- Title(参考訳): Decoding Alignment: 価値設定とデータ中心レンズによるLCM開発イニシアティブの批判的調査
- Authors: Ilias Chalkidis,
- Abstract要約: AIアライメントは、大規模言語モデルの開発におけるポストトレーニングフェーズの基盤となっている。
この研究は、価値設定とデータ中心の観点から、アライメントがどのように理解され、実際に適用されるかを明らかにすることを目的としています。
- 参考スコア(独自算出の注目度): 13.673455616267816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI Alignment, primarily in the form of Reinforcement Learning from Human Feedback (RLHF), has been a cornerstone of the post-training phase in developing Large Language Models (LLMs). It has also been a popular research topic across various disciplines beyond Computer Science, including Philosophy and Law, among others, highlighting the socio-technical challenges involved. Nonetheless, except for the computational techniques related to alignment, there has been limited focus on the broader picture: the scope of these processes, which primarily rely on the selected objectives (values), and the data collected and used to imprint such objectives into the models. This work aims to reveal how alignment is understood and applied in practice from a value-setting and data-centric perspective. For this purpose, we investigate and survey (`audit') publicly available documentation released by 6 LLM development initiatives by 5 leading organizations shaping this technology, focusing on proprietary (OpenAI's GPT, Anthropic's Claude, Google's Gemini) and open-weight (Meta's Llama, Google's Gemma, and Alibaba's Qwen) initiatives, all published in the last 3 years. The findings are documented in detail per initiative, while there is also an overall summary concerning different aspects, mainly from a value-setting and data-centric perspective. On the basis of our findings, we discuss a series of broader related concerns.
- Abstract(参考訳): AIアライメントは、主にRLHF(Reinforcement Learning from Human Feedback)という形で、大規模言語モデル(LLM)の開発におけるポストトレーニングフェーズの基盤となっている。
また、哲学や法学など、コンピュータ科学以外の様々な分野にまたがるポピュラーな研究テーマであり、関連する社会技術的課題を強調している。
それにもかかわらず、アライメントに関連する計算技術を除いて、これらのプロセスの範囲は、主に選択された目的(値)に依存し、収集され、それらの目的をモデルにインプリントするために使用される。
この研究は、価値設定とデータ中心の観点から、アライメントがどのように理解され、実際に適用されるかを明らかにすることを目的としています。
この目的のために、この技術を形作る5つの主要な組織(OpenAIのGPT、AnthropicのClaude、GoogleのGemini、MetaのLlama、GoogleのGemma、AlibabaのQwen)による6つのLLM開発イニシアチブによって公開された、公開可能なドキュメント(‘audit’)を調査し、調査する。
調査結果はイニシアチブごとに詳細に文書化されており、また、主に価値設定とデータ中心の観点から、さまざまな側面に関する全体的な要約もある。
本研究は,本研究の成果に基づいて,より広範囲にわたる懸念事項について論じる。
関連論文リスト
- Mind the Gap: A Review of Arabic Post-Training Datasets and Their Limitations [1.7024766422914548]
本稿では,Hugging Face Hub上でのアラビア語学習後のデータセットについて概説する。
各データセットは、人気、実践的採用、信頼性とメンテナンス、ドキュメンテーションとアノテーションの品質、ライセンスの透明性、科学的貢献に基づいて厳格に評価されている。
私たちのレビューでは、タスクの多様性の制限、ドキュメントやアノテーションの欠如、コミュニティ全体の採用率の低下など、アラビアのポストトレーニングデータセットの開発において重要なギャップが明らかになった。
論文 参考訳(メタデータ) (2025-07-19T16:30:45Z) - Does Machine Unlearning Truly Remove Model Knowledge? A Framework for Auditing Unlearning in LLMs [58.24692529185971]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - Personalized Generation In Large Model Era: A Survey [90.7579254803302]
大規模モデルの時代には、コンテンツ生成は徐々にパーソナライズドジェネレーション(PGen)へとシフトしている。
本報告では,PGen に関する総合的な調査を行い,この急速に成長する分野における既存研究について考察する。
複数のモダリティにまたがるPGen研究をブリッジすることで、この調査は知識共有と学際的コラボレーションを促進する貴重な情報源となる。
論文 参考訳(メタデータ) (2025-03-04T13:34:19Z) - Data-Centric AI in the Age of Large Language Models [51.20451986068925]
本稿では,大規模言語モデル(LLM)に着目した,AI研究におけるデータ中心の視点を提案する。
本研究では,LLMの発達段階(事前学習や微調整など)や推論段階(文脈内学習など)において,データが有効であることを示す。
データを中心とした4つのシナリオを特定し、データ中心のベンチマークとデータキュレーション、データ属性、知識伝達、推論コンテキスト化をカバーします。
論文 参考訳(メタデータ) (2024-06-20T16:34:07Z) - Understanding the Dataset Practitioners Behind Large Language Model Development [5.48392160519422]
私たちは、Googleというテクノロジー企業における“データセットの実践者”の役割を定義します。
我々は,これらの実践者の横断的なインタビューを行う。
データ品質が最優先事項であるにも関わらず、データ品質とそれを評価する方法に関するコンセンサスはほとんどありません。
論文 参考訳(メタデータ) (2024-02-21T23:50:37Z) - Federated Learning for Generalization, Robustness, Fairness: A Survey
and Benchmark [55.898771405172155]
フェデレートラーニングは、異なる当事者間のプライバシー保護コラボレーションのための有望なパラダイムとして登場した。
我々は,連合学習研究の重要かつ最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2023-11-12T06:32:30Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - A Survey of Label-Efficient Deep Learning for 3D Point Clouds [109.07889215814589]
本稿では,点雲のラベル効率学習に関する包括的調査を行う。
本稿では,ラベルの種類によって提供されるデータ前提条件に基づいて,ラベル効率のよい学習手法を整理する分類法を提案する。
それぞれのアプローチについて、問題設定の概要と、関連する進展と課題を示す広範な文献レビューを提供する。
論文 参考訳(メタデータ) (2023-05-31T12:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。