論文の概要: A fuzzy loss for ontology classification
- arxiv url: http://arxiv.org/abs/2405.02083v2
- Date: Mon, 19 Aug 2024 14:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 02:48:22.509043
- Title: A fuzzy loss for ontology classification
- Title(参考訳): オントロジー分類のためのファジィ損失
- Authors: Simon Flügel, Martin Glauer, Till Mossakowski, Fabian Neuhaus,
- Abstract要約: 本稿では,ラベルに基づく損失と,不随意違反や不随意違反といった用語を併用したファジィ損失を提案する。
ファジィ損失は, 分類性能を低下させることなく, 整合性違反の数を大幅に削減できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning models are often unaware of the inherent constraints of the task they are applied to. However, many downstream tasks require logical consistency. For ontology classification tasks, such constraints include subsumption and disjointness relations between classes. In order to increase the consistency of deep learning models, we propose a fuzzy loss that combines label-based loss with terms penalising subsumption- or disjointness-violations. Our evaluation on the ChEBI ontology shows that the fuzzy loss is able to decrease the number of consistency violations by several orders of magnitude without decreasing the classification performance. In addition, we use the fuzzy loss for unsupervised learning. We show that this can further improve consistency on data from a
- Abstract(参考訳): ディープラーニングモデルは、適用されるタスクの固有の制約に気付かないことが多い。
しかし、多くの下流タスクは論理的一貫性を必要とする。
オントロジー分類タスクには、クラス間の仮定と不整合関係が含まれる。
深層学習モデルの整合性を高めるため,ラベルに基づく損失と,不随意・不随意・不一致の項を組み合わせたファジィ損失を提案する。
ChEBIオントロジーによる評価は,ファジィ損失は,分類性能を低下させることなく,数桁の一貫性違反数を減少させることができることを示している。
さらに、ファジィ損失を教師なし学習に用いる。
これにより、データの一貫性をさらに向上できることを示す。
関連論文リスト
- Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Leveraging Unlabeled Data for Entity-Relation Extraction through
Probabilistic Constraint Satisfaction [54.06292969184476]
シンボリックドメイン知識の存在下でのエンティティ関係抽出の問題を研究する。
本手法では,論理文の正確な意味を捉える意味的損失を用いる。
低データ体制に焦点をあてて、セマンティックな損失がベースラインをはるかに上回ることを示す。
論文 参考訳(メタデータ) (2021-03-20T00:16:29Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z) - Robustifying Binary Classification to Adversarial Perturbation [45.347651499585055]
本稿では,対向摂動を伴う二分分類の問題について考察する。
データを操作する際の敵の力を考慮に入れたマックスマージン分類器に一般化を導入する。
損失関数に関するいくつかの軽微な仮定の下では、勾配降下がその方向のRM分類器に収束することを理論的に示す。
論文 参考訳(メタデータ) (2020-10-29T07:20:37Z) - Learning Gradient Boosted Multi-label Classification Rules [4.842945656927122]
本稿では,分解不能な損失関数だけでなく,分解不能な損失関数を最小化できる多ラベル分類規則の学習アルゴリズムを提案する。
我々は,合成データに対するアプローチの能力と限界を分析し,その予測性能をマルチラベルベンチマークで評価する。
論文 参考訳(メタデータ) (2020-06-23T21:39:23Z) - Hierarchical Class-Based Curriculum Loss [18.941207332233805]
ほとんどの実世界のデータにはラベル間の依存関係があり、階層構造を使ってキャプチャできる。
i) ラベル空間に存在する階層的制約を満たすことと, (ii) 階層のレベルに基づいてラベルに一様でない重みを与えるという2つの特性を持つ損失関数, 階層的カリキュラム損失を提案する。
論文 参考訳(メタデータ) (2020-06-05T18:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。