論文の概要: First Steps of an Approach to the ARC Challenge based on Descriptive
Grid Models and the Minimum Description Length Principle
- arxiv url: http://arxiv.org/abs/2112.00848v1
- Date: Wed, 1 Dec 2021 21:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:37:48.870414
- Title: First Steps of an Approach to the ARC Challenge based on Descriptive
Grid Models and the Minimum Description Length Principle
- Title(参考訳): 記述的グリッドモデルと最小記述長原理に基づくアークチャレンジへのアプローチの最初のステップ
- Authors: S\'ebastien Ferr\'e (Univ Rennes, CNRS, IRISA)
- Abstract要約: Abstraction and Reasoning Corpus (ARC)はFranccois Chollet氏によって、人間と機械の両方の幅広い知性を測定するツールとして最近導入された。
本稿では,記述的グリッドモデルに基づくアプローチを探求する第一歩について述べる。
我々は1年以上の進捗状況を報告し、一般的なアプローチとモデルの改善について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Abstraction and Reasoning Corpus (ARC) was recently introduced by
Fran\c{c}ois Chollet as a tool to measure broad intelligence in both humans and
machines. It is very challenging, and the best approach in a Kaggle competition
could only solve 20% of the tasks, relying on brute-force search for chains of
hand-crafted transformations. In this paper, we present the first steps
exploring an approach based on descriptive grid models and the Minimum
Description Length (MDL) principle. The grid models describe the contents of a
grid, and support both parsing grids and generating grids. The MDL principle is
used to guide the search for good models, i.e. models that compress the grids
the most. We report on our progress over a year, improving on the general
approach and the models. Out of the 400 training tasks, our performance
increased from 5 to 29 solved tasks, only using 30s computation time per task.
Our approach not only predicts the output grids, but also outputs an
intelligible model and explanations for how the model was incrementally built.
- Abstract(参考訳): Abstraction and Reasoning Corpus (ARC)はFran\c{c}ois Cholletによって人間と機械の両方の幅広い知性を測定するツールとして最近導入された。
これは非常に困難であり、カグル競争における最善のアプローチは、手作り変換の連鎖をブルートフォースで検索することで、タスクの20%しか解決できなかった。
本稿では,記述型グリッドモデルと最小記述長(mdl)原理に基づくアプローチを探求する最初のステップを提案する。
グリッドモデルはグリッドの内容を記述し、グリッドのパースとグリッドの生成の両方をサポートする。
mdlの原理は、グリッドを最も圧縮するモデルのような良いモデルの探索を導くために使われる。
我々は1年間の進歩を報告し、一般的なアプローチとモデルを改善した。
400のトレーニングタスクのうち,1タスクあたり30秒の計算時間のみを使用して,解決したタスクは5から29に向上した。
私たちのアプローチは、出力グリッドを予測するだけでなく、理解可能なモデルとモデルがどのようにインクリメンタルに構築されたかの説明も出力します。
関連論文リスト
- Pre-Trained Model Recommendation for Downstream Fine-tuning [22.343011779348682]
モデル選択は、市販の事前訓練されたモデルをランク付けし、新しいターゲットタスクに最も適したモデルを選択することを目的としている。
既存のモデル選択テクニックはスコープ内で制約されることが多く、モデルとタスク間の微妙な関係を見落としてしまう傾向があります。
我々は,多種多様な大規模モデルリポジトリを探索する実用的フレームワーク textbfFennec を提案する。
論文 参考訳(メタデータ) (2024-03-11T02:24:32Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Tackling the Abstraction and Reasoning Corpus (ARC) with Object-centric
Models and the MDL Principle [0.0]
本稿では,人間による自然プログラムに則ったオブジェクト中心モデルを提案する。
我々のモデルは、予測を行うだけでなく、入力/出力ペアに対する共同記述を提供する。
多様なタスクが解決され、学習されたモデルは自然プログラムと類似している。
論文 参考訳(メタデータ) (2023-11-01T14:25:51Z) - Sorted LLaMA: Unlocking the Potential of Intermediate Layers of Large
Language Models for Dynamic Inference [32.62084449979531]
SortedNet を Sorted Fine-Tuning (SoFT) に置き換えることで生成 NLP タスクに拡張する。
我々のアプローチはモデル効率を向上し、推論中に様々なシナリオに対する複数のモデルの必要性を排除します。
以上の結果から,SFT+ICT(Early-Exit)と標準ファインチューニング(SFT+ICT)と比較して,サブモデルの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-16T11:58:34Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - Simpler is Better: off-the-shelf Continual Learning Through Pretrained
Backbones [0.0]
本稿では,コンピュータビジョン問題の連続学習のためのベースライン(オフザシェルフ)を提案する。
事前訓練されたモデルのパワーを利用して、クラスプロトタイプを計算し、メモリバンクを埋めます。
パイプラインを一般的なCNNモデルと比較し、ビジョントランスフォーマーの優位性を示す。
論文 参考訳(メタデータ) (2022-05-03T16:03:46Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Deep Gaussian Processes for Few-Shot Segmentation [66.08463078545306]
少数ショットのセグメンテーションは難しい作業であり、いくつかの注釈付きサンプルから一般化可能な表現を抽出する必要がある。
ガウス過程(GP)回帰に基づく数ショット学習者定式化を提案する。
PASCAL-5i と COCO-20i では mIoU スコアが68.1 と 49.8 である。
論文 参考訳(メタデータ) (2021-03-30T17:56:32Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。