論文の概要: A Taxonomy of Transcendence
- arxiv url: http://arxiv.org/abs/2508.17669v1
- Date: Mon, 25 Aug 2025 05:05:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.63914
- Title: A Taxonomy of Transcendence
- Title(参考訳): 超越の分類
- Authors: Natalie Abreu, Edwin Zhang, Eran Malach, Naomi Saphra,
- Abstract要約: 制御された設定を使用して、トレーニングデータの特性を特定し、モデルがデータソースのパフォーマンスを超越する。
次に、シミュレーション専門家が個々の専門知識に基づいてデータを生成する知識グラフベースの設定を導入する。
- 参考スコア(独自算出の注目度): 26.78660458573198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although language models are trained to mimic humans, the resulting systems display capabilities beyond the scope of any one person. To understand this phenomenon, we use a controlled setting to identify properties of the training data that lead a model to transcend the performance of its data sources. We build on previous work to outline three modes of transcendence, which we call skill denoising, skill selection, and skill generalization. We then introduce a knowledge graph-based setting in which simulated experts generate data based on their individual expertise. We highlight several aspects of data diversity that help to enable the model's transcendent capabilities. Additionally, our data generation setting offers a controlled testbed that we hope is valuable for future research in the area.
- Abstract(参考訳): 言語モデルは人間を模倣するように訓練されているが、結果として得られるシステムは、誰のスコープにも及ばない能力を示す。
この現象を理解するために、我々は制御された設定を用いて、モデルがデータソースのパフォーマンスを超越する訓練データの特性を特定する。
従来の作業に基づいて,スキルの認知,スキルの選択,スキルの一般化という,3つのモードのトランジェンスを概説しています。
次に、シミュレーション専門家が個々の専門知識に基づいてデータを生成する知識グラフベースの設定を導入する。
データ多様性のいくつかの側面を強調し、モデルの超越的な機能を実現するのに役立ちます。
さらに、私たちのデータ生成設定は、この領域における将来の研究にとって価値のある、制御されたテストベッドを提供します。
関連論文リスト
- Transcendence: Generative Models Can Outperform The Experts That Train Them [55.885802048647655]
生成モデルがデータを生成する専門家の能力を超える能力を達成するとき、超越現象を研究する。
我々は,自動回帰変換器をトレーニングして,ゲームスクリプティングからチェスを学習し,トレーニングされたモデルが,データセットのすべてのプレイヤーよりも優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2024-06-17T17:00:52Z) - ORacle: Large Vision-Language Models for Knowledge-Guided Holistic OR Domain Modeling [41.30327565949726]
ORacleは、汎用ORドメインモデリング用に設計された高度な視覚言語モデルである。
マルチビューとテンポラリな機能を備えており、推論中に外部の知識を活用でき、これまで見つからなかった手術シナリオに適応することができる。
厳密なテスト、シーングラフ生成、および4D-ORデータセットの下流タスクでは、ORacleは最先端のパフォーマンスを示すだけでなく、既存のモデルよりも少ないデータを必要とする。
論文 参考訳(メタデータ) (2024-04-10T14:24:10Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Towards A Unified Agent with Foundation Models [18.558328028366816]
強化学習(RL)エージェントにそのような能力を組み込んで活用する方法を検討する。
我々は、言語を中核的推論ツールとして使用するフレームワークを設計し、エージェントが一連の基本的なRL課題にどのように取り組むことができるかを探る。
探索効率とオフラインデータセットからのデータの再利用能力において,ベースラインよりも大幅にパフォーマンスが向上したことを示す。
論文 参考訳(メタデータ) (2023-07-18T22:37:30Z) - Data Quality in Imitation Learning [15.939363481618738]
ロボット工学のオフライン学習では、インターネットのスケールデータがないだけで、高品質なデータセットが必要なのです。
これは特に、専門家によるデモンストレーションを用いたロボット学習のためのサンプル効率のよいパラダイムである模倣学習(IL)において当てはまる。
本研究では,分散シフトのレンズによる模倣学習のためのデータ品質の形式化に向けた第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-06-04T18:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。