論文の概要: 1D-Touch: NLP-Assisted Coarse Text Selection via a Semi-Direct Gesture
- arxiv url: http://arxiv.org/abs/2310.17576v1
- Date: Thu, 26 Oct 2023 17:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 18:46:14.019235
- Title: 1D-Touch: NLP-Assisted Coarse Text Selection via a Semi-Direct Gesture
- Title(参考訳): 1Dタッチ:半方向ジェスチャーによるNLP支援粗テキスト選択
- Authors: Peiling Jiang, Li Feng, Fuling Sun, Parakrant Sarkar, Haijun Xia, Can
Liu
- Abstract要約: 本稿では,キャレットベースのサブワード選択を補完する新しいテキスト選択手法である1D-Touchを紹介する。
本手法では,単語から選択領域を拡大・縮小するために,簡単な垂直スライドジェスチャーを用いる。
1D-Touchが処理する粗粒度選択タスクに着目した評価では,Android上でのデフォルトワードスナッピング選択法よりも20%改善した。
- 参考スコア(独自算出の注目度): 19.023592685303726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing text selection techniques on touchscreen focus on improving the
control for moving the carets. Coarse-grained text selection on word and phrase
levels has not received much support beyond word-snapping and entity
recognition. We introduce 1D-Touch, a novel text selection method that
complements the carets-based sub-word selection by facilitating the selection
of semantic units of words and above. This method employs a simple vertical
slide gesture to expand and contract a selection area from a word. The
expansion can be by words or by semantic chunks ranging from sub-phrases to
sentences. This technique shifts the concept of text selection, from defining a
range by locating the first and last words, towards a dynamic process of
expanding and contracting a textual semantic entity. To understand the effects
of our approach, we prototyped and tested two variants: WordTouch, which offers
a straightforward word-by-word expansion, and ChunkTouch, which leverages NLP
to chunk text into syntactic units, allowing the selection to grow by
semantically meaningful units in response to the sliding gesture. Our
evaluation, focused on the coarse-grained selection tasks handled by 1D-Touch,
shows a 20% improvement over the default word-snapping selection method on
Android.
- Abstract(参考訳): 既存のタッチスクリーン上のテキスト選択技術は、キャレットの移動制御の改善に焦点を当てている。
単語とフレーズレベルの粗粒度のテキスト選択は、ワードスナップとエンティティ認識以上のサポートを受けていない。
1d-touchは,単語の意味単位の選択を容易にすることで,キャレットに基づく単語のサブワード選択を補完する新しいテキスト選択手法である。
本手法では,単語から選択領域を拡大・縮小するために,簡単な垂直スライドジェスチャーを用いる。
拡張は、単語や、サブフレーズから文まで、セマンティックチャンクによって行うことができる。
このテクニックは、テキスト選択の概念を、最初の単語と最後の単語を見つけることで範囲を定義することから、テキスト意味エンティティを拡張して収縮する動的なプロセスへとシフトする。
このアプローチの効果を理解するために、wordtouchのプロトタイプとテストを行った。wordtouchは単純な単語単位の拡張を提供し、chunktouchはnlpを利用してテキストを構文単位にチャンクし、スライディングジェスチャに応じて意味的に意味のあるユニットで選択できる。
1D-Touchが処理する粗粒度選択タスクに着目した評価では,Android上でのデフォルトワードスナッピング選択法よりも20%改善した。
関連論文リスト
- SwinTextSpotter v2: Towards Better Synergy for Scene Text Spotting [126.01629300244001]
我々はSwinTextSpotter v2と呼ばれる新しいエンドツーエンドのシーンテキストスポッティングフレームワークを提案する。
我々は,新しい認識変換モジュールと認識アライメントモジュールを用いて,2つのタスク間の関係を強化する。
SwinTextSpotter v2は、様々な多言語(英語、中国語、ベトナム語)のベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-01-15T12:33:00Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - DPText-DETR: Towards Better Scene Text Detection with Dynamic Points in
Transformer [94.35116535588332]
ポリゴン点やベジエ曲線制御点を予測してテキストをローカライズするトランスフォーマーベースの手法は、シーンテキストの検出で非常に人気がある。
しかし、使用点ラベル形式は、トランスフォーマーモデルの堅牢性に影響を与える人間の読み順を意味する。
本稿では,DPText-DETRを提案する。これはクエリとしてポイント座標を直接使用し,デコーダ層間で動的に更新する。
論文 参考訳(メタデータ) (2022-07-10T15:45:16Z) - SwinTextSpotter: Scene Text Spotting via Better Synergy between Text
Detection and Text Recognition [73.61592015908353]
本稿では,SwinTextSpotter と呼ばれるシーンテキストスポッティングフレームワークを提案する。
動的頭部を検出器とするトランスを用いて、2つのタスクを新しい認識変換機構で統一する。
この設計は、追加の修正モジュールも文字レベルのアノテーションも必要としない簡潔なフレームワークをもたらす。
論文 参考訳(メタデータ) (2022-03-19T01:14:42Z) - Learning Semantic-Aligned Feature Representation for Text-based Person
Search [8.56017285139081]
テキストに基づく人物検索のためのセマンティック・アライン・埋め込み手法を提案する。
特徴アライメントは、意味的に整った視覚的特徴とテキスト的特徴を自動的に学習することで達成される。
CUHK-PEDESおよびFlickr30Kデータセットによる実験結果から,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-12-13T14:54:38Z) - Parts2Words: Learning Joint Embedding of Point Clouds and Texts by
Bidirectional Matching between Parts and Words [32.47815081044594]
テキストからの形状と単語の双方向マッチングにより,点雲とテキストの結合埋め込みを学習することを提案する。
具体的には、まず点雲を部品に分割し、次に最適化された特徴空間内の部品と単語を一致させるために最適な輸送手法を利用する。
実験により,本手法はマルチモーダル検索タスクにおけるSOTAの精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-07-05T08:55:34Z) - StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery [71.1862388442953]
StyleGAN画像操作のためのテキストベースのインターフェースを開発しています。
まず,ユーザが提案するテキストプロンプトに応答して,CLIPに基づく損失を利用して入力潜時ベクトルを変更する最適化手法を提案する。
次に、与えられた入力画像に対してテキスト誘導の潜時操作ステップを推論し、より高速で安定したテキストベースの操作を可能にする潜時マッパーについて述べる。
論文 参考訳(メタデータ) (2021-03-31T17:51:25Z) - Text Perceptron: Towards End-to-End Arbitrary-Shaped Text Spotting [49.768327669098674]
テキストパーセプトロン(Text Perceptron)という,エンドツーエンドのトレーニング可能なテキストスポッティング手法を提案する。
まず、テキスト読解順序と境界情報を学ぶ効率的なセグメンテーションベースのテキスト検出器を用いる。
次に、検出された特徴領域を正規形態に変換するために、新しい形状変換モジュール(STM)を設計する。
論文 参考訳(メタデータ) (2020-02-17T08:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。