論文の概要: Contrastive ECOC: Learning Output Codes for Adversarial Defense
- arxiv url: http://arxiv.org/abs/2508.10491v1
- Date: Thu, 14 Aug 2025 09:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.262507
- Title: Contrastive ECOC: Learning Output Codes for Adversarial Defense
- Title(参考訳): 対照的なECOC: 敵防衛のための出力コードを学ぶ
- Authors: Che-Yu Chou, Hung-Hsuan Chen,
- Abstract要約: 本稿では,コントラスト学習に基づく自動コードブック学習の3つのモデルを紹介する。
提案モデルでは, 2つのベースラインと比較して, 敵攻撃に対する強靭性が高いことを示す。
- 参考スコア(独自算出の注目度): 2.07180164747172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although one-hot encoding is commonly used for multiclass classification, it is not always the most effective encoding mechanism. Error Correcting Output Codes (ECOC) address multiclass classification by mapping each class to a unique codeword used as a label. Traditional ECOC methods rely on manually designed or randomly generated codebooks, which are labor-intensive and may yield suboptimal, dataset-agnostic results. This paper introduces three models for automated codebook learning based on contrastive learning, allowing codebooks to be learned directly and adaptively from data. Across four datasets, our proposed models demonstrate superior robustness to adversarial attacks compared to two baselines. The source is available at https://github.com/YuChou20/Automated-Codebook-Learning-with-Error-Correcting-Output-Code-Technique.
- Abstract(参考訳): ワンホット符号化は一般的にマルチクラス分類に使用されるが、必ずしも最も効果的な符号化機構であるとは限らない。
Ecoror Correcting Output Codes (ECOC)は、各クラスをラベルとして使用するユニークなコードワードにマッピングすることで、マルチクラス分類に対処する。
従来のECOCメソッドは、手動で設計またはランダムに生成されたコードブックに依存しており、労働集約的で、最適なデータセットに依存しない結果をもたらす可能性がある。
本稿では、コントラスト学習に基づく自動コードブック学習の3つのモデルを紹介し、データから直接適応的にコードブックを学習できるようにする。
提案モデルでは, 4つのデータセットに対して, 2つのベースラインと比較して, 敵攻撃に対して優れた強靭性を示す。
ソースはhttps://github.com/YuChou20/Automated-Codebook-Learning-with-Error-Correcting-Output-Code-Techniqueで公開されている。
関連論文リスト
- Exploiting Discriminative Codebook Prior for Autoregressive Image Generation [54.14166700058777]
トークンベースの自己回帰画像生成システムは、まずトークンインデックスのシーケンスをコードブックでトークン化し、次にこれらのシーケンスを自己回帰パラダイムでモデル化する。
自己回帰生成モデルはインデックス値のみに基づいて訓練されるが、豊富なトークン類似性情報を含むコードブックにエンコードされた前者は利用されない。
近年の研究では、トークン上に単純なk平均クラスタリングを行い、コードブックを減らした生成モデルのトレーニングを容易にすることで、これを先に組み込もうとしている。
k-meansの代替として、差別的コードブック先駆者(DCPE)を提案する。
論文 参考訳(メタデータ) (2025-08-14T15:00:00Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Accurate and Well-Calibrated ICD Code Assignment Through Attention Over
Diverse Label Embeddings [1.201425717264024]
ICDコードを臨床テキストに手動で割り当てるのは、時間がかかり、エラーが発生し、コストがかかる。
本稿では,ICDの自動符号化のための新しい手法について述べる。
MIMIC-IIIデータセットの異なる分割による実験は、提案手法がICD符号化における現在の最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-02-05T16:40:23Z) - TransformCode: A Contrastive Learning Framework for Code Embedding via Subtree Transformation [9.477734501499274]
コード埋め込みを対照的な学習方法で学習する新しいフレームワークであるTransformCodeを提案する。
我々のフレームワークはエンコーダに依存しない言語に依存しないので、どんなエンコーダモデルでも活用でき、どんなプログラミング言語でも扱える。
論文 参考訳(メタデータ) (2023-11-10T09:05:23Z) - A Two-Stage Decoder for Efficient ICD Coding [10.634394331433322]
ICD符号の予測のための2段階復号機構を提案する。
まず、まず親コードを予測し、その子コードを前回の予測に基づいて予測する。
公開MIMIC-IIIデータセット実験により,本モデルが単一モデル設定で良好に動作することを示す。
論文 参考訳(メタデータ) (2023-05-27T17:25:13Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - One Loss for All: Deep Hashing with a Single Cosine Similarity based
Learning Objective [86.48094395282546]
ディープハッシュモデルは通常、学習されたバイナリハッシュコードの識別と量子化エラーの最小化という2つの学習目標を持つ。
本稿では,1つの学習目的しか持たない新しい深層ハッシュモデルを提案する。
我々のモデルは,3つの大規模インスタンス検索ベンチマークにおいて,最先端のマルチロスハッシュモデルより優れている。
論文 参考訳(メタデータ) (2021-09-29T14:27:51Z) - InferCode: Self-Supervised Learning of Code Representations by
Predicting Subtrees [17.461451218469062]
本稿では,自己言語学習機構をソースコードモデルに適用することにより,制限を克服するinfercodeを提案する。
ASTのサブツリーは、人間のラベル付けや高価なグラフ構築のオーバーヘッドなしにコード表現をトレーニングするためのラベルとして、InferCodeで扱われる。
Code2Vec、Code2Seq、ASTNNなど、同じ下流タスクに適用される以前のコード学習技術と比較して、事前に訓練されたInferCodeモデルを使用して、より高いパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-12-13T10:33:41Z) - Integer Programming-based Error-Correcting Output Code Design for Robust
Classification [4.7464518249313805]
誤り訂正出力コード(ECOC)は、単純なバイナリ分類器をマルチクラス分類器に結合する原則的なアプローチを提供する。
本稿では, 最適ECOCを設計し, 名目精度と対角精度を両立させる問題について検討する。
我々の研究は、最適性を保証するコードブックを生成するために、IPソルバの進歩を活用している。
論文 参考訳(メタデータ) (2020-10-30T23:35:18Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。