論文の概要: First Steps of an Approach to the ARC Challenge based on Descriptive
Grid Models and the Minimum Description Length Principle
- arxiv url: http://arxiv.org/abs/2112.00848v1
- Date: Wed, 1 Dec 2021 21:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:37:48.870414
- Title: First Steps of an Approach to the ARC Challenge based on Descriptive
Grid Models and the Minimum Description Length Principle
- Title(参考訳): 記述的グリッドモデルと最小記述長原理に基づくアークチャレンジへのアプローチの最初のステップ
- Authors: S\'ebastien Ferr\'e (Univ Rennes, CNRS, IRISA)
- Abstract要約: Abstraction and Reasoning Corpus (ARC)はFranccois Chollet氏によって、人間と機械の両方の幅広い知性を測定するツールとして最近導入された。
本稿では,記述的グリッドモデルに基づくアプローチを探求する第一歩について述べる。
我々は1年以上の進捗状況を報告し、一般的なアプローチとモデルの改善について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Abstraction and Reasoning Corpus (ARC) was recently introduced by
Fran\c{c}ois Chollet as a tool to measure broad intelligence in both humans and
machines. It is very challenging, and the best approach in a Kaggle competition
could only solve 20% of the tasks, relying on brute-force search for chains of
hand-crafted transformations. In this paper, we present the first steps
exploring an approach based on descriptive grid models and the Minimum
Description Length (MDL) principle. The grid models describe the contents of a
grid, and support both parsing grids and generating grids. The MDL principle is
used to guide the search for good models, i.e. models that compress the grids
the most. We report on our progress over a year, improving on the general
approach and the models. Out of the 400 training tasks, our performance
increased from 5 to 29 solved tasks, only using 30s computation time per task.
Our approach not only predicts the output grids, but also outputs an
intelligible model and explanations for how the model was incrementally built.
- Abstract(参考訳): Abstraction and Reasoning Corpus (ARC)はFran\c{c}ois Cholletによって人間と機械の両方の幅広い知性を測定するツールとして最近導入された。
これは非常に困難であり、カグル競争における最善のアプローチは、手作り変換の連鎖をブルートフォースで検索することで、タスクの20%しか解決できなかった。
本稿では,記述型グリッドモデルと最小記述長(mdl)原理に基づくアプローチを探求する最初のステップを提案する。
グリッドモデルはグリッドの内容を記述し、グリッドのパースとグリッドの生成の両方をサポートする。
mdlの原理は、グリッドを最も圧縮するモデルのような良いモデルの探索を導くために使われる。
我々は1年間の進歩を報告し、一般的なアプローチとモデルを改善した。
400のトレーニングタスクのうち,1タスクあたり30秒の計算時間のみを使用して,解決したタスクは5から29に向上した。
私たちのアプローチは、出力グリッドを予測するだけでなく、理解可能なモデルとモデルがどのようにインクリメンタルに構築されたかの説明も出力します。
関連論文リスト
- Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - GOFA: A Generative One-For-All Model for Joint Graph Language Modeling [38.267339613261996]
この問題を解決するために,新たに生成グラフ言語モデルGOFAを提案する。
GOFAは、新たに提案されたグラフレベルの次単語予測、質問応答、構造的タスクに基づいて事前訓練されている。
モデルは様々な下流タスクに基づいて評価され、ゼロショットシナリオにおける構造的および文脈的問題を解く強力な能力を示す。
論文 参考訳(メタデータ) (2024-07-12T22:23:51Z) - Grounding and Enhancing Grid-based Models for Neural Fields [52.608051828300106]
本稿では,グリッドモデルに関する理論的枠組みを紹介する。
このフレームワークは、これらのモデルの近似と一般化の挙動がグリッド接カーネル(GTK)によって決定されることを指摘している。
導入されたフレームワークは、Multiplicative Fourier Adaptive Grid(MulFAGrid)と呼ばれる新しいグリッドベースモデルの開発を動機付けている。
論文 参考訳(メタデータ) (2024-03-29T06:33:13Z) - Pre-Trained Model Recommendation for Downstream Fine-tuning [22.343011779348682]
モデル選択は、市販の事前訓練されたモデルをランク付けし、新しいターゲットタスクに最も適したモデルを選択することを目的としている。
既存のモデル選択テクニックはスコープ内で制約されることが多く、モデルとタスク間の微妙な関係を見落としてしまう傾向があります。
我々は,多種多様な大規模モデルリポジトリを探索する実用的フレームワーク textbfFennec を提案する。
論文 参考訳(メタデータ) (2024-03-11T02:24:32Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Tackling the Abstraction and Reasoning Corpus (ARC) with Object-centric
Models and the MDL Principle [0.0]
本稿では,人間による自然プログラムに則ったオブジェクト中心モデルを提案する。
我々のモデルは、予測を行うだけでなく、入力/出力ペアに対する共同記述を提供する。
多様なタスクが解決され、学習されたモデルは自然プログラムと類似している。
論文 参考訳(メタデータ) (2023-11-01T14:25:51Z) - Sorted LLaMA: Unlocking the Potential of Intermediate Layers of Large
Language Models for Dynamic Inference [32.62084449979531]
SortedNet を Sorted Fine-Tuning (SoFT) に置き換えることで生成 NLP タスクに拡張する。
我々のアプローチはモデル効率を向上し、推論中に様々なシナリオに対する複数のモデルの必要性を排除します。
以上の結果から,SFT+ICT(Early-Exit)と標準ファインチューニング(SFT+ICT)と比較して,サブモデルの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-16T11:58:34Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - Simpler is Better: off-the-shelf Continual Learning Through Pretrained
Backbones [0.0]
本稿では,コンピュータビジョン問題の連続学習のためのベースライン(オフザシェルフ)を提案する。
事前訓練されたモデルのパワーを利用して、クラスプロトタイプを計算し、メモリバンクを埋めます。
パイプラインを一般的なCNNモデルと比較し、ビジョントランスフォーマーの優位性を示す。
論文 参考訳(メタデータ) (2022-05-03T16:03:46Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。