論文の概要: Machine Learning as Iterated Belief Change a la Darwiche and Pearl
- arxiv url: http://arxiv.org/abs/2506.13157v1
- Date: Mon, 16 Jun 2025 07:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.598466
- Title: Machine Learning as Iterated Belief Change a la Darwiche and Pearl
- Title(参考訳): ラ・ダルウィッチとパールの反復的変化による機械学習
- Authors: Theofanis Aravanis,
- Abstract要約: バイナリANNは、入力と出力の両方がバイナリ値に制限されるフィードフォワードネットワークである。
ダラルの信念変化の方法は、自然に信念の状態の構造化された段階的な進化を誘導することを示す。
本研究では、二元的ANNのトレーニングダイナミクスをより効果的にモデリングし、堅牢なAGMスタイルの変更操作でモデル化できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Neural Networks (ANNs) are powerful machine-learning models capable of capturing intricate non-linear relationships. They are widely used nowadays across numerous scientific and engineering domains, driving advancements in both research and real-world applications. In our recent work, we focused on the statics and dynamics of a particular subclass of ANNs, which we refer to as binary ANNs. A binary ANN is a feed-forward network in which both inputs and outputs are restricted to binary values, making it particularly suitable for a variety of practical use cases. Our previous study approached binary ANNs through the lens of belief-change theory, specifically the Alchourron, Gardenfors and Makinson (AGM) framework, yielding several key insights. Most notably, we demonstrated that the knowledge embodied in a binary ANN (expressed through its input-output behaviour) can be symbolically represented using a propositional logic language. Moreover, the process of modifying a belief set (through revision or contraction) was mapped onto a gradual transition through a series of intermediate belief sets. Analogously, the training of binary ANNs was conceptualized as a sequence of such belief-set transitions, which we showed can be formalized using full-meet AGM-style belief change. In the present article, we extend this line of investigation by addressing some critical limitations of our previous study. Specifically, we show that Dalal's method for belief change naturally induces a structured, gradual evolution of states of belief. More importantly, given the known shortcomings of full-meet belief change, we demonstrate that the training dynamics of binary ANNs can be more effectively modelled using robust AGM-style change operations -- namely, lexicographic revision and moderate contraction -- that align with the Darwiche-Pearl framework for iterated belief change.
- Abstract(参考訳): ニューラルネットワーク(ANN)は、複雑な非線形関係をキャプチャできる強力な機械学習モデルである。
今日では多くの科学と工学の領域で広く使われており、研究と現実世界の両方の応用の進歩を推進している。
最近の研究で、我々はANNの特定のサブクラスの静的性と動的性に焦点を当てた。
バイナリANNは、入力と出力の両方をバイナリ値に制限したフィードフォワードネットワークであり、様々なユースケースに特に適している。
前回の研究では、信念変化理論、特にAlchourron, Gardenfors and Makinson(AGM)フレームワークを通じてバイナリANNにアプローチし、いくつかの重要な洞察を得た。
最も注目すべきは、バイナリANNに具現化された知識(入出力動作によって表現される)が命題論理言語を用いて象徴的に表現できることである。
さらに、(修正または収縮を通じて)信念セットを変更するプロセスは、一連の中間信念セットを通して段階的な遷移にマッピングされた。
比較として、二元的ANNのトレーニングは、そのような信念セット遷移のシーケンスとして概念化され、フルミートなAGMスタイルの信念変化を用いて形式化できることを示した。
本稿では,本研究の限界に対処して,本研究の行程を延長する。
具体的には、ダラルの信念変化の方法が自然に、信念の状態の構造化された段階的な進化を誘導することを示す。
さらに重要なことは、フルミートな信念変化の既知の欠点を考えると、バイナリANNのトレーニングダイナミクスはより効果的に、より堅牢なAGMスタイルの変更操作(すなわち、レキシコグラフィーリビジョンと適度な収縮)によってモデル化され、反復的な信念変化のためのDarwiche-Pearlフレームワークと整合することを示した。
関連論文リスト
- Resolving Oversmoothing with Opinion Dissensus [1.793683576639675]
我々は,GNNにおける過剰な会話と,意見力学文学におけるコンセンサス(つまり完全合意)の類似性を紹介する。
複数のGNNモデルのメッセージパッシングアルゴリズムは,グラフ構造によらず,すべての入力に対してコンセンサスに収束することが示されている線形意見力学モデルと等価であることを示す。
論文 参考訳(メタデータ) (2025-01-31T12:34:09Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Two-Phase Dynamics of Interactions Explains the Starting Point of a DNN Learning Over-Fitted Features [68.3512123520931]
深層ニューラルネットワーク(DNN)学習相互作用のダイナミクスについて検討する。
本稿では,DNNが2段階の相互作用を学習していることを明らかにする。
第1相は主に中位と高位の相互作用を罰し、第2相は徐々に増加する順序の相互作用を学習する。
論文 参考訳(メタデータ) (2024-05-16T17:13:25Z) - Understanding Neural Network Binarization with Forward and Backward
Proximal Quantizers [26.27829662433536]
ニューラルネットワークバイナライゼーションでは、BinaryConnect(BC)とその変種が標準とされている。
最適化の観点から、これらのトレーニングのトリックにいくつかの光を当てることを目指しています。
論文 参考訳(メタデータ) (2024-02-27T17:43:51Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - CARE: Certifiably Robust Learning with Reasoning via Variational
Inference [26.210129662748862]
推論パイプライン(CARE)を用いた頑健な学習を提案する。
CAREは、最先端のベースラインに比べて、かなり高い信頼性のロバスト性を達成する。
さらに,CAREの実証的ロバスト性および知識統合の有効性を示すために,異なるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-09-12T07:15:52Z) - Concept Evolution in Deep Learning Training: A Unified Interpretation
Framework and Discoveries [45.88354622464973]
ConceptEvoはディープニューラルネットワーク(DNN)のための統合解釈フレームワーク
それは、訓練中に学んだ概念の発端と進化を明らかにします。
これは、ConvNeXtのような現代のDNNアーキテクチャと、VGGsやInceptionV3のような古典的なDNNの両方に適用できる。
論文 参考訳(メタデータ) (2022-03-30T17:12:18Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。