論文の概要: Algebraic Learning: Towards Interpretable Information Modeling
- arxiv url: http://arxiv.org/abs/2203.06690v1
- Date: Sun, 13 Mar 2022 15:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:05:54.803088
- Title: Algebraic Learning: Towards Interpretable Information Modeling
- Title(参考訳): 代数学習: 解釈可能な情報モデリングに向けて
- Authors: Tong Owen Yang
- Abstract要約: この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Along with the proliferation of digital data collected using sensor
technologies and a boost of computing power, Deep Learning (DL) based
approaches have drawn enormous attention in the past decade due to their
impressive performance in extracting complex relations from raw data and
representing valuable information. Meanwhile, though, rooted in its notorious
black-box nature, the appreciation of DL has been highly debated due to the
lack of interpretability. On the one hand, DL only utilizes statistical
features contained in raw data while ignoring human knowledge of the underlying
system, which results in both data inefficiency and trust issues; on the other
hand, a trained DL model does not provide to researchers any extra insight
about the underlying system beyond its output, which, however, is the essence
of most fields of science, e.g. physics and economics.
This thesis addresses the issue of interpretability in general information
modeling and endeavors to ease the problem from two scopes. Firstly, a
problem-oriented perspective is applied to incorporate knowledge into modeling
practice, where interesting mathematical properties emerge naturally which cast
constraints on modeling. Secondly, given a trained model, various methods could
be applied to extract further insights about the underlying system. These two
pathways are termed as guided model design and secondary measurements.
Remarkably, a novel scheme emerges for the modeling practice in statistical
learning: Algebraic Learning (AgLr). Instead of being restricted to the
discussion of any specific model, AgLr starts from idiosyncrasies of a learning
task itself and studies the structure of a legitimate model class. This novel
scheme demonstrates the noteworthy value of abstract algebra for general AI,
which has been overlooked in recent progress, and could shed further light on
interpretable information modeling.
- Abstract(参考訳): センサ技術を用いて収集されたデジタルデータの普及と計算能力の向上に伴い、ディープラーニング(dl)ベースのアプローチは、生データから複雑な関係を抽出し、貴重な情報を表現することで、過去10年間に多大な注目を集めてきた。
しかし、その悪名高いブラックボックスの性質に根ざして、DLの認識は解釈可能性の欠如のために非常に議論されている。
一方、DLは生データに含まれる統計的特徴のみを利用し、基礎システムの人的知識を無視し、データ非効率性と信頼の問題の両方をもたらす。一方、訓練されたDLモデルは、その出力以外の基盤システムに関する余分な洞察を与えていない。
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、2つのスコープから問題を緩和する試みである。
第一に、知識をモデリングの実践に取り入れるために問題指向の視点が適用され、興味深い数学的性質が自然に出現し、モデリングに制約が生じる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
これら2つの経路は誘導モデル設計と二次計測と呼ばれる。
興味深いことに、統計学習におけるモデリングの実践のために新しいスキームが出現する:代数学習(AgLr)。
特定のモデルの議論に制限される代わりに、AgLrは学習タスク自体の慣用性から始まり、正当なモデルクラスの構造を研究する。
この新しいスキームは、最近の進歩で見過ごされている汎用AIの抽象代数学の注目すべき価値を示し、解釈可能な情報モデリングにさらなる光を当てる可能性がある。
関連論文リスト
- Learning-based Models for Vulnerability Detection: An Extensive Study [3.1317409221921144]
我々は、最先端の学習ベースアプローチの2つのタイプを広範かつ包括的に調査する。
本稿では,シーケンスベースモデルの優先度と,グラフベースモデルの限定能力について実験的に検証する。
論文 参考訳(メタデータ) (2024-08-14T13:01:30Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。