論文の概要: Interpreting Contrastive Embeddings in Specific Domains with Fuzzy Rules
- arxiv url: http://arxiv.org/abs/2603.12227v1
- Date: Thu, 12 Mar 2026 17:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.266649
- Title: Interpreting Contrastive Embeddings in Specific Domains with Fuzzy Rules
- Title(参考訳): ファジィ規則を用いた特定領域におけるコントラスト埋め込みの解釈
- Authors: Javier Fumanal-Idocin, Mohammadreza Jamalifard, Javier Andreu-Perez,
- Abstract要約: ファジィルールに基づく分類システムと、標準的なテキストプロシージャ技術を用いて、CLIPモデルによって作成された空間に、関心のあるいくつかの特徴をマッピングする。
本手法を臨床報告とフィルムレビューの2つの異なるデータ領域に適用し, 個別に, 両方を考慮した結果を比較した。
- 参考スコア(独自算出の注目度): 3.3836709236378755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Free-style text is still one of the common ways in which data is registered in real environments, like legal procedures and medical records. Because of that, there have been significant efforts in the area of natural language processing to convert these texts into a structured format, which standard machine learning methods can then exploit. One of the most popular methods to embed text into a vectorial representation is the Contrastive Language-Image Pre-training model (CLIP), which was trained using both image and text. Although the representations computed by CLIP have been very successful in zero-show and few-shot learning problems, they still have problems when applied to a particular domain. In this work, we use a fuzzy rule-based classification system along with some standard text procedure techniques to map some of our features of interest to the space created by a CLIP model. Then, we discuss the rules and associations obtained and the importance of each feature considered. We apply this approach in two different data domains, clinical reports and film reviews, and compare the results obtained individually and when considering both. Finally, we discuss the limitations of this approach and how it could be further improved.
- Abstract(参考訳): フリースタイルのテキストは、法的手続きや医療記録など、実際の環境でデータが登録される一般的な方法の1つである。
そのため、自然言語処理の分野では、これらのテキストを構造化形式に変換するための大きな努力が続けられており、標準的な機械学習手法が活用できる。
テキストをベクトル表現に埋め込む最も一般的な方法の1つは、画像とテキストの両方を用いて訓練されたContrastive Language-Image Pre-training Model (CLIP)である。
CLIPによって計算された表現は、ゼロショーと数ショットの学習問題で非常に成功したが、特定のドメインに適用した場合にはまだ問題がある。
本研究では、ファジィルールに基づく分類システムと標準的なテキストプロシージャ技術を用いて、CLIPモデルによって作成された空間に関心のある特徴の一部をマッピングする。
そこで我々は,得られたルールと関連性,および各特徴の重要性について考察した。
本手法を臨床報告とフィルムレビューの2つの異なるデータ領域に適用し, 個別に, 両方を考慮した結果を比較した。
最後に、このアプローチの限界と、さらに改善される可能性について論じる。
関連論文リスト
- Innamark: A Whitespace Replacement Information-Hiding Method [0.0]
Innamarkと呼ばれる新しい情報隠蔽手法を提案する。
Innamarkは十分な長さのカバーテキスト内に任意のバイトエンコードされたシーケンスを隠せる。
本稿では、圧縮、暗号化、ハッシュ、エラー訂正を可能にする秘密メッセージの特定構造を提案する。
論文 参考訳(メタデータ) (2025-02-18T10:21:27Z) - Finetuning CLIP to Reason about Pairwise Differences [52.028073305958074]
本稿では,CLIPのような視覚言語モデルの学習手法を提案する。
画像間の差異のテキスト記述が画像埋め込み空間の差に対応するようにCLIPを微調整する。
提案手法は,特定の属性によって画像のランク付け能力を大幅に向上させ,下流画像分類タスクにおけるゼロショット分類性能を向上する。
論文 参考訳(メタデータ) (2024-09-15T13:02:14Z) - SCOB: Universal Text Understanding via Character-wise Supervised
Contrastive Learning with Online Text Rendering for Bridging Domain Gap [10.011953474950744]
そこで本稿では,オンラインテキストレンダリングによる文字の教師付きコントラスト学習を活用したSCOBという新しい事前学習手法を提案する。
SCOBは弱い教師付き学習を可能にし、アノテーションのコストを大幅に削減する。
以上の結果から,SCOBは読み取り型事前学習法に有効である可能性が示唆された。
論文 参考訳(メタデータ) (2023-09-21T15:06:08Z) - Turning a CLIP Model into a Scene Text Detector [56.86413150091367]
近年,視覚言語モデルに基づく事前学習手法がテキスト検出の分野で有効な進歩を遂げている。
本稿では,CLIPモデルを事前学習せずにテキスト検出に利用することを目的とした,TCMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T06:06:12Z) - SpaText: Spatio-Textual Representation for Controllable Image Generation [61.89548017729586]
SpaTextはオープン語彙シーン制御を用いたテキスト・ツー・イメージ生成の新しい手法である。
シーン全体を記述したグローバルテキストプロンプトに加えて、ユーザはセグメンテーションマップを提供する。
現状拡散モデルである画素ベースと潜在条件ベースでの有効性を示す。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - A Robust Contrastive Alignment Method For Multi-Domain Text
Classification [21.35729884948437]
マルチドメインテキスト分類は、様々なシナリオで自動的にテキストを分類することができる。
現在の高度なメソッドでは、プライベート共有のパラダイムを使用し、共有エンコーダによってドメイン共有の機能をキャプチャし、各ドメインに対してプライベートエンコーダをトレーニングしてドメイン固有の特徴を抽出する。
教師付きコントラスト学習により,異なる領域のテキスト分類特徴を同じ特徴空間に整列させる頑健なコントラストアライメント手法を提案する。
論文 参考訳(メタデータ) (2022-04-26T07:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。