論文の概要: Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning
- arxiv url: http://arxiv.org/abs/2012.11406v1
- Date: Mon, 21 Dec 2020 15:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:26:33.475626
- Title: Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning
- Title(参考訳): 不変性としての知識 -知識強化機械学習の歴史と展望-
- Authors: Alexander Sagel and Amit Sahu and Stefan Matthes and Holger Pfeifer
and Tianming Qiu and Harald Rue{\ss} and Hao Shen and Julian W\"ormann
- Abstract要約: 機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
- 参考スコア(独自算出の注目度): 69.99522650448213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research in machine learning is at a turning point. While supervised deep
learning has conquered the field at a breathtaking pace and demonstrated the
ability to solve inference problems with unprecedented accuracy, it still does
not quite live up to its name if we think of learning as the process of
acquiring knowledge about a subject or problem. Major weaknesses of present-day
deep learning models are, for instance, their lack of adaptability to changes
of environment or their incapability to perform other kinds of tasks than the
one they were trained for. While it is still unclear how to overcome these
limitations, one can observe a paradigm shift within the machine learning
community, with research interests shifting away from increasing the
performance of highly parameterized models to exceedingly specific tasks, and
towards employing machine learning algorithms in highly diverse domains. This
research question can be approached from different angles. For instance, the
field of Informed AI investigates the problem of infusing domain knowledge into
a machine learning model, by using techniques such as regularization, data
augmentation or post-processing.
On the other hand, a remarkable number of works in the recent years has
focused on developing models that by themselves guarantee a certain degree of
versatility and invariance with respect to the domain or problem at hand. Thus,
rather than investigating how to provide domain-specific knowledge to machine
learning models, these works explore methods that equip the models with the
capability of acquiring the knowledge by themselves. This white paper provides
an introduction and discussion of this emerging field in machine learning
research. To this end, it reviews the role of knowledge in machine learning,
and discusses its relation to the concept of invariance, before providing a
literature review of the field.
- Abstract(参考訳): 機械学習の研究は転換点にある。
教師付き深層学習は、これまでにないペースでこの分野を征服し、前例のない精度で推論問題を解く能力を示したが、学習を主題や問題に関する知識獲得の過程と考えると、その名前にはまだ達していない。
現在のディープラーニングモデルの主な弱点は、例えば、環境の変化への適応性の欠如や、トレーニングされたものよりも他の種類のタスクを実行することができないことである。
これらの制限を克服する方法はまだ分かっていないが、機械学習コミュニティ内のパラダイムシフトを観察することが可能であり、非常にパラメータ化されたモデルのパフォーマンスを極端に特定のタスクに引き上げることから、非常に多様なドメインで機械学習アルゴリズムを採用することへと、研究の関心が移り変わる。
この研究は異なる角度からアプローチすることができる。
例えば、Informed AIの分野は、正規化やデータ拡張、後処理といったテクニックを使用して、ドメイン知識を機械学習モデルに注入する問題を調査している。
一方で、近年の注目すべき作品は、ドメインや問題に対して、それ自体がある程度の汎用性と不変性を保証するモデルの開発に焦点をあてている。
したがって、機械学習モデルにドメイン固有の知識を提供する方法を検討するのではなく、モデルにそれ自身で知識を取得する能力を与える方法を探求する。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
この目的のために、機械学習における知識の役割をレビューし、その分野の文献レビューを提供する前に、不変の概念との関係について論じる。
関連論文リスト
- Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Zero-knowledge Proof Meets Machine Learning in Verifiability: A Survey [19.70499936572449]
高品質なモデルは、効率的な最適化アルゴリズムだけでなく、膨大なデータと計算能力に基づいて構築されたトレーニングと学習プロセスにも依存する。
計算リソースの制限やデータプライバシの懸念など,さまざまな課題があるため,モデルを必要とするユーザは,マシンラーニングモデルをローカルにトレーニングすることはできないことが多い。
本稿では,ゼロ知識証明に基づく検証可能な機械学習(ZKP-VML)技術について包括的に調査する。
論文 参考訳(メタデータ) (2023-10-23T12:15:23Z) - Interpretable Machine Learning for Discovery: Statistical Challenges \&
Opportunities [1.2891210250935146]
我々は、解釈可能な機械学習の分野について議論し、レビューする。
解釈可能な機械学習を用いて行うことができる発見の種類について概説する。
我々は、これらの発見をデータ駆動方式でどのように検証するかという大きな課題に焦点をあてる。
論文 参考訳(メタデータ) (2023-08-02T23:57:31Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Graph Enabled Cross-Domain Knowledge Transfer [1.52292571922932]
クロスドメイン・ナレッジ・トランスファー(クロスドメイン・ナレッジ・トランスファー)は、優れた表現学習と関心領域における知識不足のギャップを軽減するためのアプローチである。
機械学習の観点からは、半教師付き学習のパラダイムは、基礎的な真実なしに大量のデータを活用し、目覚ましい学習性能向上を実現する。
論文 参考訳(メタデータ) (2023-04-07T03:02:10Z) - A Roadmap to Domain Knowledge Integration in Machine Learning [21.96548398967003]
機械学習モデルに知識を統合することは、これらの障害をある程度克服するのに役立ちます。
機械学習タスクにおけるこれらの様々な知識の統合とそれらのパフォーマンスについて、簡単な概要を述べます。
論文 参考訳(メタデータ) (2022-12-12T05:35:44Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - A Survey of Knowledge Representation in Service Robotics [10.220366465518262]
我々は、知識表現と、どのようにして知識が収集され、表現され、どのように再生され、問題を解決するかに焦点を当てる。
知識表現の定義に従って、そのような表現と有用な学習モデルの主な区別について議論する。
効果的な知識表現を設計する際に考慮すべき重要な原則について議論する。
論文 参考訳(メタデータ) (2018-07-05T22:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。