論文の概要: Towards Efficient Neurally-Guided Program Induction for ARC-AGI
- arxiv url: http://arxiv.org/abs/2411.17708v1
- Date: Wed, 13 Nov 2024 14:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-01 04:42:53.186567
- Title: Towards Efficient Neurally-Guided Program Induction for ARC-AGI
- Title(参考訳): ARC-AGIのための効率的なニューラルネットワーク型プログラム誘導に向けて
- Authors: Simon Ouellette,
- Abstract要約: ARC-AGIは、アウト・オブ・ディストリビューションを一般化する能力が重要な品質である、オープンワールドな問題領域である。
プログラム誘導パラダイムの下では,ニューラルネットワークを用いたプログラム誘導手法の効率性と一般化特性を明らかにする一連の実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: ARC-AGI is an open-world problem domain in which the ability to generalize out-of-distribution is a crucial quality. Under the program induction paradigm, we present a series of experiments that reveal the efficiency and generalization characteristics of various neurally-guided program induction approaches. The three paradigms we consider are Learning the grid space, Learning the program space, and Learning the transform space. We implement and experiment thoroughly on the first two, and retain the second one for ARC-AGI submission. After identifying the strengths and weaknesses of both of these approaches, we suggest the third as a potential solution, and run preliminary experiments.
- Abstract(参考訳): ARC-AGIは、アウト・オブ・ディストリビューションを一般化する能力が重要な品質である、オープンワールドな問題領域である。
プログラム誘導パラダイムの下では,ニューラルネットワークを用いたプログラム誘導手法の効率性と一般化特性を明らかにする一連の実験を行う。
私たちが考える3つのパラダイムは、グリッド空間の学習、プログラム空間の学習、変換空間の学習です。
最初の2つを徹底的に実装し,実験し,ARC-AGIを提出するための第2の1つを継続する。
これら2つのアプローチの長所と短所を特定した後、第3の手法を潜在的な解として提案し、予備実験を行う。
関連論文リスト
- Bidirectional Awareness Induction in Autoregressive Seq2Seq Models [47.82947878753809]
双方向認識誘導(BAI)は、ネットワーク内の要素のサブセットであるPivotsを利用して、自己回帰的制約を破ることなく双方向学習を行う訓練手法である。
特に,イメージキャプションでは2.4CIDEr,ニューラルマシン翻訳では4.96BLEU,テキスト要約では1.16ROUGEの増加が確認された。
論文 参考訳(メタデータ) (2024-08-25T23:46:35Z) - An Efficient Learning-based Solver Comparable to Metaheuristics for the
Capacitated Arc Routing Problem [67.92544792239086]
我々は,高度メタヒューリスティックスとのギャップを著しく狭めるため,NNベースの解法を導入する。
まず,方向対応型注意モデル(DaAM)を提案する。
第2に、教師付き事前学習を伴い、堅牢な初期方針を確立するための教師付き強化学習スキームを設計する。
論文 参考訳(メタデータ) (2024-03-11T02:17:42Z) - Towards a General Framework for Continual Learning with Pre-training [55.88910947643436]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Human-Timescale Adaptation in an Open-Ended Task Space [56.55530165036327]
大規模にRLエージェントを訓練することで、オープンエンドの新規な3D問題に人間と同じくらい早く適応できる一般的なコンテキスト内学習アルゴリズムが実現可能であることを示す。
我々の研究は、より大規模で適応的なRLエージェントの基礎を築いた。
論文 参考訳(メタデータ) (2023-01-18T15:39:21Z) - Towards the One Learning Algorithm Hypothesis: A System-theoretic
Approach [0.0]
人間の認知における普遍的な学習アーキテクチャの存在は、神経科学の実験的な発見によって支持される広範囲にわたる推測である。
i) マルチレゾリューション分析プリプロセッサ, (ii) グループ不変の特徴抽出器, (iii) プログレッシブ知識に基づく学習モジュールの3つの主成分からなる閉ループシステムを開発した。
複数の解像度で徐々に成長する知識表現を構成する新しい学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-04T05:54:33Z) - Neural-guided, Bidirectional Program Search for Abstraction and
Reasoning [3.2348834229786885]
本稿では, ブルートフォース探索をベースとしない抽象化と推論の2つのアプローチの基礎を定めている。
まずDreamCoderと呼ばれる既存のプログラム合成システムを用いて、これまで解決されてきたタスクからシンボリックな抽象化を作成する。
第二に、人間がARCに近づく方法によって動機付けられた推論アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-22T00:41:47Z) - Real-Time Topology Optimization in 3D via Deep Transfer Learning [0.0]
本稿では,畳み込みニューラルネットワークに基づく伝達学習手法を提案する。
さまざまな形状やトポロジの高解像度3Dデザイン領域に対応できることを示します。
実験では,平均二進法精度を95%程度,実時間予測速度で達成した。
論文 参考訳(メタデータ) (2021-02-11T21:09:58Z) - Abstract Value Iteration for Hierarchical Reinforcement Learning [23.08652058034536]
本研究では,連続状態と行動空間による制御のための階層型強化学習フレームワークを提案する。
重要な課題は、ADPがマルコフではなく、ADPで計画するための2つのアルゴリズムを提案することである。
我々の手法は、いくつかの挑戦的なベンチマークにおいて、最先端の階層的強化学習アルゴリズムより優れています。
論文 参考訳(メタデータ) (2020-10-29T14:41:42Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。