論文の概要: Stress and Adaptation: Applying Anna Karenina Principle in Deep Learning
for Image Classification
- arxiv url: http://arxiv.org/abs/2302.11380v1
- Date: Wed, 22 Feb 2023 13:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:03:53.123540
- Title: Stress and Adaptation: Applying Anna Karenina Principle in Deep Learning
for Image Classification
- Title(参考訳): ストレスと適応: 画像分類のためのディープラーニングにおけるAnna Karenina原則の適用
- Authors: Nesma Mahmoud, Hanna Antson, Jaesik Choi, Osamu Shimmi, Kallol Roy
- Abstract要約: アンナ・カレニナの原理は広範囲のシステムで発見されている。
本稿では,がん細胞を非癌細胞から分類するモデルを構築した。
- 参考スコア(独自算出の注目度): 18.30432215770829
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image classification with deep neural networks has reached state-of-art with
high accuracy. This success is attributed to good internal representation
features that bypasses the difficulties of the non-convex optimization
problems. We have little understanding of these internal representations, let
alone quantifying them. Recent research efforts have focused on alternative
theories and explanations of the generalizability of these deep networks. We
propose the alternative perturbation of deep models during their training
induces changes that lead to transitions to different families. The result is
an Anna Karenina Principle AKP for deep learning, in which less generalizable
models unhappy families vary more in their representation than more
generalizable models happy families paralleling Leo Tolstoy dictum that all
happy families look alike, each unhappy family is unhappy in its own way. Anna
Karenina principle has been found in systems in a wide range: from the surface
of endangered corals exposed to harsh weather to the lungs of patients
suffering from fatal diseases of AIDs. In our paper, we have generated
artificial perturbations to our model by hot-swapping the activation and loss
functions during the training. In this paper, we build a model to classify
cancer cells from non-cancer ones. We give theoretical proof that the internal
representations of generalizable happy models are similar in the asymptotic
limit. Our experiments verify similar representations of generalizable models.
- Abstract(参考訳): ディープニューラルネットワークによる画像分類は、高い精度で最先端に到達した。
この成功は、非凸最適化問題の困難を回避できる優れた内部表現機能に起因する。
私たちはこれらの内部表現についてほとんど理解していない。
近年の研究は、これらの深層ネットワークの一般化可能性に関する代替理論と説明に焦点を当てている。
学習中の深層モデルの代替的摂動は,異なる家族への遷移につながる変化を誘発する。
その結果は、ディープラーニングのためのAnna Karenina Principle AKPであり、より一般化可能なモデルであるハッピーファミリーよりも、より一般化可能なモデルであるハッピーファミリーの方が、すべてのハッピーファミリーが同じように見えるLeo Tolstoy dictumに平行して、それぞれの不幸な家族は独自の方法で不幸である。
アンナ・カレニナの原理は、絶滅危惧種のサンゴの表面が厳しい天候にさらされることから、AIDの致命的な病気に苦しむ患者の肺まで、幅広いシステムで見られる。
本稿では,学習中にアクティベーションと損失関数をホットスワッピングすることで,モデルに対する人工摂動を生成した。
本稿では,癌細胞を非がん細胞から分類するモデルを構築した。
一般化された幸福モデルの内部表現が漸近極限において類似していることの理論的証明を与える。
我々の実験は一般化モデルの類似表現を検証する。
関連論文リスト
- Facing Asymmetry -- Uncovering the Causal Link between Facial Symmetry and Expression Classifiers using Synthetic Interventions [7.562215603730798]
ブラックボックスモデルは片側性顔面麻痺患者のパフォーマンスを低下させる。
我々は、因果推論からの洞察を用いて仮説を調査する。
本研究は,ブラックボックスモデルの挙動に影響を及ぼす因果因子を同定するためのケーススタディとして機能する。
論文 参考訳(メタデータ) (2024-09-24T09:53:35Z) - Inverse decision-making using neural amortized Bayesian actors [19.128377007314317]
我々は、教師なしの方法で幅広いパラメータ設定で訓練されたニューラルネットワークを用いてベイズアクターを記憶する。
推定された後続分布は,その存在する解析解を用いて得られた分布と密接に一致していることを示す。
そして、より複雑なコスト関数において、先行とコストの間の識別可能性の問題が発生することを示した。
論文 参考訳(メタデータ) (2024-09-04T10:31:35Z) - Multimodal and multicontrast image fusion via deep generative models [3.431015735214097]
本稿では,モジュール型アプローチと分離可能な畳み込みブロックに根ざした生成モデルに基づく深層学習アーキテクチャを提案する。
これは、病気の進化を予測し、薬の反応を予測し、機械的な理解と臨床試験の強化を支援するのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-03-28T13:31:27Z) - An Extended Study of Human-like Behavior under Adversarial Training [11.72025865314187]
ニューラルネットワークの形状バイアスへのシフトは, 対角訓練によって増加することを示す。
また、周波数の観点からこの現象を説明できる。
論文 参考訳(メタデータ) (2023-03-22T15:47:16Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Agree to Disagree: When Deep Learning Models With Identical
Architectures Produce Distinct Explanations [0.0]
我々は,MIMIC-CXRデータセットの特定問題を強調するために,説明整合性の尺度を導入する。
同じモデルの説明がありますが、異なるトレーニングセットアップでは一貫性が低く、平均で$approx$ 33%です。
モデル説明の現在のトレンドは、実生活の医療アプリケーションにおけるモデル展開のリスクを軽減するのに十分ではないと結論づける。
論文 参考訳(メタデータ) (2021-05-14T12:16:47Z) - A Twin Neural Model for Uplift [59.38563723706796]
Upliftは条件付き治療効果モデリングの特定のケースです。
相対リスクのベイズ解釈との関連性を利用して定義した新たな損失関数を提案する。
本提案手法は,シミュレーション設定の最先端と大規模ランダム化実験による実データとの競合性を示す。
論文 参考訳(メタデータ) (2021-05-11T16:02:39Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - A General Framework for Survival Analysis and Multi-State Modelling [70.31153478610229]
ニューラル常微分方程式を多状態生存モデル推定のためのフレキシブルで一般的な方法として用いる。
また,本モデルでは,サバイバルデータセット上での最先端性能を示すとともに,マルチステート環境での有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T19:24:54Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。