論文の概要: Two pathways to resolve relational inconsistencies
- arxiv url: http://arxiv.org/abs/2411.05809v2
- Date: Wed, 26 Mar 2025 10:06:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:18:03.376433
- Title: Two pathways to resolve relational inconsistencies
- Title(参考訳): リレーショナル不整合を解決する2つの経路
- Authors: Tomer Barak, Yonatan Loewenstein,
- Abstract要約: 我々は、小さな違反が期待される関係の調整につながり、大きな違反は異なるメカニズムで解決されることを示した。
これらの結果から,期待値違反に直面した場合の事前期待値の安定性は,学習力学の自然な結果であることが示唆された。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: When individuals encounter observations that violate their expectations, when will they adjust their expectations and when will they maintain them despite these observations? For example, when individuals expect objects of type A to be smaller than objects B, but observe the opposite, when will they adjust their expectation about the relationship between the two objects (to A being larger than B)? Naively, one would predict that the larger the violation, the greater the adaptation. However, experiments reveal that when violations are extreme, individuals are more likely to hold on to their prior expectations rather than adjust them. To address this puzzle, we tested the adaptation of artificial neural networks (ANNs) capable of relational learning and found a similar phenomenon: Standard learning dynamics dictates that small violations would lead to adjustments of expected relations while larger ones would be resolved using a different mechanism -- a change in object representation that bypasses the need for adaptation of the relational expectations. These results suggest that the experimentally-observed stability of prior expectations when facing large expectation violations is a natural consequence of learning dynamics and does not require any additional mechanisms. We conclude by discussing the effect of intermediate adaptation steps on this stability.
- Abstract(参考訳): 個人が期待に反する観察に遭遇したとき、期待をいつ調整し、これらの観察にもかかわらずいつ維持するだろうか?
例えば、A型オブジェクトがB型オブジェクトよりも小さいと個人が期待する場合、B型オブジェクトよりもA型オブジェクトの方が大きいという2つのオブジェクトの関係について期待を調整するのはいつ頃になるのか?
概して、違反が大きいほど適応が大きくなると予測する。
しかし、実験によると、違反が極端な場合、個人はそれらを調整するよりも、事前の期待に固執する傾向にある。
このパズルに対処するために、リレーショナル学習が可能な人工知能ニューラルネットワーク(ANN)の適応をテストし、同様の現象を発見した。
これらの結果から,期待値違反に直面する場合の事前期待値の安定性は,学習力学の自然な帰結であり,追加的なメカニズムを必要としないことが示唆された。
この安定性に対する中間適応段階の影響について論じる。
関連論文リスト
- Causal vs. Anticausal merging of predictors [57.26526031579287]
同じデータを用いて、因果方向と反因果方向の融合予測器から生じる差について検討した。
帰納的バイアスとしてCausal Maximum Entropy (CMAXENT) を用いて予測器をマージする。
論文 参考訳(メタデータ) (2025-01-14T20:38:15Z) - Observation Interference in Partially Observable Assistance Games [34.53170543153206]
我々は,人間とAIアシスタントが部分的な観察を行うことを可能にする,人間-AI値アライメント問題のモデルについて検討する。
最適なアシスタントは、人間が最適に演奏している場合でも、観察干渉行動をとる必要がある。
不合理性のボルツマンモデルに従えば、これはアシスタントが観察に干渉するインセンティブを生じさせることが示される。
論文 参考訳(メタデータ) (2024-12-23T18:53:33Z) - RelVAE: Generative Pretraining for few-shot Visual Relationship
Detection [2.2230760534775915]
本研究は,注釈付き関係を必要としない数発述語分類のための最初の事前学習手法を提案する。
VG200とVRDのデータセットについて,数発のトレーニング分割を構築し,定量的な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T19:08:08Z) - Estimating Treatment Effects Under Heterogeneous Interference [24.714971680893402]
本稿では,多様な近隣住民の情報を集約する新しいアーキテクチャを開発することにより,異種干渉をモデル化する新しい手法を提案する。
提案手法は,同一ビュー情報を集約するグラフニューラルネットワーク,異なるビューから情報を集約するメカニズム,注目メカニズムを含む。
論文 参考訳(メタデータ) (2023-09-25T05:44:17Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Towards Causal Representation Learning and Deconfounding from Indefinite
Data [17.793702165499298]
非統計データ(画像、テキストなど)は、従来の因果データとプロパティやメソッドの点で重大な対立に遭遇する。
2つの新しい視点から因果データを再定義し、3つのデータパラダイムを提案する。
非定値データから因果表現を学習するための動的変分推論モデルとして,上記の設計を実装した。
論文 参考訳(メタデータ) (2023-05-04T08:20:37Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - On the Role of Optimization in Double Descent: A Least Squares Study [30.44215064390409]
最小二乗対象の降下勾配解に対して過大なリスクを負うことを示す。
ノイズのない回帰の場合、二重降下は最適化関連量によってのみ説明される。
ニューラルネットワークの予測が保たれているかどうかを実証的に調査する。
論文 参考訳(メタデータ) (2021-07-27T09:13:11Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - Interference and Generalization in Temporal Difference Learning [86.31598155056035]
時間差学習における一般化と干渉の関係について検討する。
教師付き学習ではTDが容易に低干渉,低一般化パラメータにつながり,その効果は逆のように見える。
論文 参考訳(メタデータ) (2020-03-13T15:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。