論文の概要: Learning Moderately Input-Sensitive Functions: A Case Study in QR Code Decoding
- arxiv url: http://arxiv.org/abs/2506.20305v1
- Date: Wed, 25 Jun 2025 10:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.69786
- Title: Learning Moderately Input-Sensitive Functions: A Case Study in QR Code Decoding
- Title(参考訳): 適度な入力感性関数の学習:QRコードデコーディングを事例として
- Authors: Kazuki Yoda, Kazuhiko Kawamoto, Hiroshi Kera,
- Abstract要約: 本研究では,最初の学習ベースクイックレスポンス(QR)符号デコーディングを提案する。
実験の結果、Transformerは理論上の誤り訂正限界を超えてQRコードを復号できることがわかった。
- 参考スコア(独自算出の注目度): 5.2980803808373516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The hardness of learning a function that attains a target task relates to its input-sensitivity. For example, image classification tasks are input-insensitive as minor corruptions should not affect the classification results, whereas arithmetic and symbolic computation, which have been recently attracting interest, are highly input-sensitive as each input variable connects to the computation results. This study presents the first learning-based Quick Response (QR) code decoding and investigates learning functions of medium sensitivity. Our experiments reveal that Transformers can successfully decode QR codes, even beyond the theoretical error-correction limit, by learning the structure of embedded texts. They generalize from English-rich training data to other languages and even random strings. Moreover, we observe that the Transformer-based QR decoder focuses on data bits while ignoring error-correction bits, suggesting a decoding mechanism distinct from standard QR code readers.
- Abstract(参考訳): 目的のタスクを達成する関数を学ぶことの難しさは、その入力感度に関係している。
例えば、画像分類タスクは、マイナーな汚職が分類結果に影響を与えるべきではないため、入力に敏感であるのに対して、最近注目されている算術と記号計算は、各入力変数が計算結果に結びつくため、非常に入力に敏感である。
本研究は,メディア感度の学習機能について,最初の学習ベースクイックレスポンス(QR)コードデコードを提案する。
実験の結果,組込みテキストの構造を学習することで,QR符号の復号化が理論的誤り訂正限界を超えても可能であることがわかった。
彼らは英語に富んだ訓練データから他の言語やランダムな文字列まで一般化する。
さらに、TransformerベースのQRデコーダは、誤り訂正ビットを無視しながらデータビットに焦点を当てており、標準的なQRコードリーダーとは異なる復号機構が提案されている。
関連論文リスト
- Fast correlated decoding of transversal logical algorithms [67.01652927671279]
大規模計算には量子エラー補正(QEC)が必要であるが、かなりのリソースオーバーヘッドが発生する。
近年の進歩により、論理ゲートからなるアルゴリズムにおいて論理キュービットを共同で復号化することにより、症候群抽出ラウンドの数を削減できることが示されている。
ここでは、回路を介して伝播する関連する論理演算子製品を直接復号することで、回路の復号化の問題を修正する。
論文 参考訳(メタデータ) (2025-05-19T18:00:00Z) - Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Sparse Autoencoders Enable Scalable and Reliable Circuit Identification in Language Models [0.0]
本稿では,大規模言語モデルにおける解釈可能な回路を発見するための,効率的かつ堅牢な手法を提案する。
本稿では, 慎重に設計した正負の例に対して, スパースオートエンコーダを訓練する。
本研究は,スケーラブルかつ効率的な機械的解釈性を実現するための離散スパースオートエンコーダの実現を示唆するものである。
論文 参考訳(メタデータ) (2024-05-21T06:26:10Z) - Cross-Subject Data Splitting for Brain-to-Text Decoding [36.30024741795527]
各種認知データセット(fMRI,EEG)における脳からテキストへのデコーディングのためのオブジェクト間データ分割基準を提案する。
既存のクロスオブジェクトデータ分割戦略を包括的に分析し、これらの手法がデータ漏洩に悩まされていることを証明する。
提案するクロスオブジェクト分割法は,データ漏洩問題に対処し,さらなる研究のベースラインとして,いくつかのSOTA脳-テキストデコーディングモデルを再評価する。
論文 参考訳(メタデータ) (2023-12-18T07:22:39Z) - A Comparative Study of Filters and Deep Learning Models to predict
Diabetic Retinopathy [0.0]
本研究では,インセプションNetV3を含む様々なディープラーニングモデルの結果を比較し,様々な画像フィルタを用いた。
本研究の目的は糖尿病関連失明の主な原因である糖尿病網膜症(DR)の診断過程を改善することである。
論文 参考訳(メタデータ) (2023-09-26T19:21:09Z) - Sensitivity as a Complexity Measure for Sequence Classification Tasks [24.246784593571626]
標準のシーケンス分類法は低感度関数の学習に偏っているため、高感度を必要とするタスクがより困難である。
15のNLPタスクで感度を推定し、単純なテキスト分類タスクよりもGLUEで収集された挑戦的なタスクで感度が高いことを発見した。
論文 参考訳(メタデータ) (2021-04-21T03:56:59Z) - On the Sub-Layer Functionalities of Transformer Decoder [74.83087937309266]
トランスフォーマーをベースとしたデコーダは,ソースおよびターゲット言語からの情報をいかに活用するかを検討する。
これらの知見に基づき,各トランスフォーマーデコーダ層内の残フィードフォワードモジュールは,性能の低下を最小限に抑えられることを示した。
論文 参考訳(メタデータ) (2020-10-06T11:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。