論文の概要: Transductively Informed Inductive Program Synthesis
- arxiv url: http://arxiv.org/abs/2505.14744v1
- Date: Tue, 20 May 2025 08:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.669144
- Title: Transductively Informed Inductive Program Synthesis
- Title(参考訳): トランスダクティブインダクティブインダクティブプログラム合成
- Authors: Janis Zenkner, Tobias Sesterhenn, Christian Bartelt,
- Abstract要約: Acstiipsは, 協調的なメカニズムを通じて, 相互作用を明示的にモデル化することによって, 伝達戦略と誘導戦略を統一する新しいフレームワークである。
この結果から,アクスティプスはより多くのタスクを解決し,構文や意味論の最適解とより密に一致する関数を生成することがわかった。
- 参考スコア(独自算出の注目度): 2.355460994057843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstraction and reasoning in program synthesis has seen significant progress through both inductive and transductive paradigms. Inductive approaches generate a program or latent function from input-output examples, which can then be applied to new inputs. Transductive approaches directly predict output values for given inputs, effectively serving as the function themselves. Current approaches combine inductive and transductive models via isolated ensembling, but they do not explicitly model the interaction between both paradigms. In this work, we introduce \acs{tiips}, a novel framework that unifies transductive and inductive strategies by explicitly modeling their interactions through a cooperative mechanism: an inductive model generates programs, while a transductive model constrains, guides, and refines the search to improve synthesis accuracy and generalization. We evaluate \acs{tiips} on two widely studied program synthesis domains: string and list manipulation. Our results show that \acs{tiips} solves more tasks and yields functions that more closely match optimal solutions in syntax and semantics, particularly in out-of-distribution settings, yielding state-of-the-art performance. We believe that explicitly modeling the synergy between inductive and transductive reasoning opens promising avenues for general-purpose program synthesis and broader applications.
- Abstract(参考訳): プログラム合成における抽象化と推論は、帰納的パラダイムと帰納的パラダイムの両方を通じて大きく進歩している。
帰納的アプローチは入力出力の例からプログラムまたは潜在関数を生成し、新しい入力に適用することができる。
トランスダクティブアプローチは与えられた入力の出力値を直接予測し、関数自身として効果的に機能する。
現在のアプローチでは、インダクティブモデルとトランスダクティブモデルを分離アンサンブルで組み合わせているが、両者のパラダイム間の相互作用を明示的にモデル化するものではない。
帰納的モデルがプログラムを生成する一方で,帰納的モデル制約,ガイド,洗練された探索を行い,合成精度と一般化を向上する。
我々は,文字列とリスト操作という2つの広く研究されているプログラム合成領域に対して,<acs{tiips} を評価する。
以上の結果から,<acs{tiips} はより多くのタスクを解決し,特にアウト・オブ・ディストリビューション・セッティングにおいて,構文やセマンティクスの最適解とより密に一致した関数を生成する。
帰納的推論と帰納的推論の相乗効果を明示的にモデル化することは、汎用的なプログラム合成やより広範な応用に期待できる道を開くと信じている。
関連論文リスト
- Strengthening Structural Inductive Biases by Pre-training to Perform Syntactic Transformations [75.14793516745374]
中間学習によりトランスフォーマーの構造的帰納バイアスを強化することを提案する。
実験の結果,チャンキングなどの構文的タスクのわずかな学習に有効であることが確認された。
分析の結果,中間的事前学習は,どのトークンにシナティクス変換を適用する必要があるかを追尾する注意を喚起することが明らかとなった。
論文 参考訳(メタデータ) (2024-07-05T14:29:44Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Transduce: learning transduction grammars for string transformation [0.0]
帰納的バイアスを伴わない1つまたは2つの正の例から位置変換を効率的に学習する新しいアルゴリズムTransduceを提案する。
実験により,Transduceは1つないし2つの正の例から効率よく位置変換を学習できることを示した。
論文 参考訳(メタデータ) (2023-12-14T07:59:02Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Abstractors and relational cross-attention: An inductive bias for explicit relational reasoning in Transformers [4.562331048595688]
抽象モジュールと呼ばれる新しいモジュールを通じて明示的なリレーショナル推論を可能にするトランスフォーマーの拡張が提案されている。
Abstractorの中核には、リレーショナル・クロスアテンション(relational cross-attention)と呼ばれる注意の亜種がある。
このアプローチは、関係情報をオブジェクトレベルの特徴から切り離す関係学習のためのアーキテクチャ的帰納的バイアスによって動機付けられます。
論文 参考訳(メタデータ) (2023-04-01T01:49:08Z) - Learning Functional Transduction [9.926231893220063]
そこで本研究では,トランスダクティブ回帰の原理を勾配降下によりメタ学習し,より効率的なインコンテキスト・ニューラル近似器を構築できることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するためのメタ学習型トランスダクティブアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-02-01T09:14:28Z) - Neural Combinatorial Logic Circuit Synthesis from Input-Output Examples [10.482805367361818]
本稿では,入力出力の例から論理回路を合成するための,新しい完全説明可能なニューラルアプローチを提案する。
我々の方法は、ほぼ任意の原子の選択に利用できる。
論文 参考訳(メタデータ) (2022-10-29T14:06:42Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Creating Synthetic Datasets via Evolution for Neural Program Synthesis [77.34726150561087]
いくつかのプログラム合成手法は、ランダムに生成された例と異なるデータ分布によく一般化されていることを示す。
本稿では, 合成データ分布のバイアスを制御し, 現在の手法より優れていることを示すための, 新たな敵対的手法を提案する。
論文 参考訳(メタデータ) (2020-03-23T18:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。