論文の概要: Texterial: A Text-as-Material Interaction Paradigm for LLM-Mediated Writing
- arxiv url: http://arxiv.org/abs/2603.00452v1
- Date: Sat, 28 Feb 2026 04:17:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.198787
- Title: Texterial: A Text-as-Material Interaction Paradigm for LLM-Mediated Writing
- Title(参考訳): テクテリアル: LLM-Mediated 書き込みのためのテキスト・アズ・マトリカル・インタラクション・パラダイム
- Authors: Jocelyn Shen, Nicolai Marquardt, Hugo Romat, Ken Hinckley, Nathalie Riche, Fanny Chevalier,
- Abstract要約: Texterialは、テキストをユーザーが成長し、彫刻し、変換できる素材として再定義する。
現在の生成AIモデルはリッチテキスト操作を可能にするが、剛性のあるリニアインタフェースはしばしばそのような機能を隠蔽する。
我々は、テキスト・アズ・マテリアルというメタファがAI可能な操作を明らかにし、書き起こしプロセスを再構築し、魅力的なユーザー体験を育む方法について検討する。
- 参考スコア(独自算出の注目度): 23.30351268066681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What if text could be sculpted and refined like clay -- or cultivated and pruned like a plant? Texterial reimagines text as a material that users can grow, sculpt, and transform. Current generative-AI models enable rich text operations, yet rigid, linear interfaces often mask such capabilities. We explore how the text-as-material metaphor can reveal AI-enabled operations, reshape the writing process, and foster compelling user experiences. A formative study shows that users readily reason with text-as-material, informing a conceptual framework that explains how material metaphors shift mental models and bridge gulfs of envisioning, execution, and evaluation in LLM-mediated writing. We present the design and evaluation of two technical probes: Text as Clay, where users refine text through gestural sculpting, and Text as Plants, where ideas grow serendipitously over time. This work expands the design space of writing tools by treating text as a living, malleable medium.
- Abstract(参考訳): もしテキストが粘土のように彫刻され、洗練され、あるいは植物のように栽培され、刈り取られるとしたらどうだろう?
Texterialは、テキストをユーザーが成長し、彫刻し、変換できる素材として再定義する。
現在の生成AIモデルはリッチテキスト操作を可能にするが、剛性のあるリニアインタフェースはしばしばそのような機能を隠蔽する。
我々は、テキスト・アズ・マテリアルというメタファがAI可能な操作を明らかにし、書き起こしプロセスを再構築し、魅力的なユーザー体験を育む方法について検討する。
テキスト・アズ・マテリアル(text-as- Materials, テキスト・アズ・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・アズ・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・ア・マテリアル, テキスト・アズ・マテリアル, テキスト・ア・ア・マテリアル, テキスト・ア・ア・マテリアル, テキスト・アズ・マテリアル, テキスト・アズ・ア・ア・マテリアル, テキスト・ア・ア・ア・アーティファクト)は,
本稿では,2つの技術プローブの設計と評価について述べる。テキスト・アズ・クレイ (Text as Clay) ,ユーザはジェスチャーの彫刻によってテキストを洗練し,テキスト・アズ・プラント (Text as Plants) ではアイデアは時間とともにセレンディピティーに成長する。
この研究は、テキストを生きた、可鍛性のある媒体として扱うことによって、筆記ツールの設計空間を拡大する。
関連論文リスト
- TextEditBench: Evaluating Reasoning-aware Text Editing Beyond Rendering [18.337757379089037]
画像中のテキスト中心領域の総合評価ベンチマークであるTextEditBenchを紹介する。
本ベンチマークでは, 物理的妥当性, 言語的意味, 相互依存をモデルで理解する必要のある, 推論集約的な編集シナリオを強調した。
また,意味的整合性,文脈的コヒーレンス,モーダル間の整合性を維持するためのモデルの推論能力を測定するセマンティック期待(Semantic expectation)を新たに提案する。
論文 参考訳(メタデータ) (2025-12-18T07:37:08Z) - Textarium: Entangling Annotation, Abstraction and Argument [2.2344764434954256]
Textariumは、テキストの解釈中にアノテーション、抽象化、議論を接続するWebベースの環境である。
我々は,解釈過程を透明化し,デジタル物語の中で共有可能にする読み書き手法を開発した。
論文 参考訳(メタデータ) (2025-09-16T15:46:00Z) - Visual Text Processing: A Comprehensive Review and Unified Evaluation [99.57846940547171]
視覚テキスト処理における最近の進歩を包括的・多視点的に分析する。
本研究の目的は,視覚テキスト処理のダイナミックな分野における今後の探索と革新を促進する基礎資源として,本研究を確立することである。
論文 参考訳(メタデータ) (2025-04-30T14:19:29Z) - Less can be more for predicting properties with large language models [5.561723952524538]
本稿では,座標分類データの座標情報から学習できる大規模言語モデルの限界について報告する。
LLMはカテゴリパターンに長けながら座標情報の取得に一貫して失敗していることがわかった。
本研究は, 構造効果に支配される材料特性予測タスクにおける即時的な実践的意味を示唆するものである。
論文 参考訳(メタデータ) (2024-06-25T05:45:07Z) - Enhancing Scene Text Detectors with Realistic Text Image Synthesis Using
Diffusion Models [63.99110667987318]
DiffTextは、前景のテキストと背景の本質的な特徴をシームレスにブレンドするパイプラインです。
テキストインスタンスが少なくなると、生成したテキストイメージはテキスト検出を支援する他の合成データを一貫して上回ります。
論文 参考訳(メタデータ) (2023-11-28T06:51:28Z) - Context Unlocks Emotions: Text-based Emotion Classification Dataset
Auditing with Large Language Models [23.670143829183104]
テキストデータに文脈情報がないため、テキストベースの感情分類データセットのアノテーションプロセスは困難である。
本稿では,このような文脈情報を強化するための促進戦略を動機付けるために,テキストコンテキストの形式的定義を提案する。
提案手法は, 経験的, 人的評価的両面から, 入力と人的アノテートラベルのアライメントを改善する。
論文 参考訳(メタデータ) (2023-11-06T21:34:49Z) - Learning to Imagine: Visually-Augmented Natural Language Generation [73.65760028876943]
本稿では,事前学習型言語モデル(PLM)を視覚的に拡張した自然言語gEnerationのために学習する手法を提案する。
拡散モデルを用いて、入力テキストに条件付き高品質な画像を合成する。
段落全体に対して1つの画像のみを生成するのではなく、各文に対して合成を行う。
論文 参考訳(メタデータ) (2023-05-26T13:59:45Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - FairyTailor: A Multimodal Generative Framework for Storytelling [33.39639788612019]
本稿では,人間とループによるビジュアルストーリーのコクリエーションのためのシステムとデモ,FairyTailorを紹介する。
ユーザは、生成されたテキストを織り、入力で検索した画像を織り込むことで、結束した子供の妖精を作ることができる。
我々の知る限り、これはテキストと画像の両方のインタラクティブなコフォームを可能にするマルチモーダルなストーリー生成のための最初の動的ツールである。
論文 参考訳(メタデータ) (2021-07-13T02:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。