論文の概要: Interpretative Interfaces: Designing for AI-Mediated Reading Practices and the Knowledge Commons
- arxiv url: http://arxiv.org/abs/2603.15863v1
- Date: Mon, 16 Mar 2026 19:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.968836
- Title: Interpretative Interfaces: Designing for AI-Mediated Reading Practices and the Knowledge Commons
- Title(参考訳): 解釈インタフェース:AIによる読み書きの実践と知識コモンズのための設計
- Authors: Gabrielle Benabdallah,
- Abstract要約: 私は説明可能性から解釈的エンゲージメントへの移行を主張します。
このプロジェクトの目的は、インタラクション設計プロジェクトとしてAIの解釈可能性を再設計することである。
- 参考スコア(独自算出の注目度): 4.399563188884703
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable AI (XAI) interfaces seek to make large language models more transparent, yet explanation alone does not produce understanding. Explaining a system's behavior is not the same as being able to engage with it, to probe and interpret its operations through direct manipulation. This distinction matters for scientific disciplines in particular: scientists who increasingly rely on LLMs for reading, citing, and producing literature reviews have little means of directly engaging with how these models process and transform the texts they generate. In this ongoing design research project, I argue for a shift from explainability to interpretative engagement. This shift moves away from accounts of system behavior to instead enable users to manipulate a model's intermediate representations. Drawing on textual scholarship, computational poetics, and the history of reading and writing technologies, including practices such as marginalia, glosses, indices, and annotation systems, I propose interpretative interfaces as interactive environments in which non-expert users can intervene in the representational space of a language model. More specifically, such interfaces will allow users to select a token and follow its trajectory through the model's intermediate layers. This way, they can observe how its semantic position shifts as context is processed, and possibly annotate the transformations they find useful or meaningful. The same way readers can create their own maps within a book through annotations and bookmarks, interpretative interfaces will allow users to inscribe their reading of a model's internal representations. The goal of this project is to reframe AI interpretability as an interaction design project rather than a purely technical one, and to open a path toward AI-mediated reading that supports interpretative engagement and critical stewardship of scientific knowledge.
- Abstract(参考訳): 説明可能なAI(XAI)インターフェースは、大きな言語モデルをより透過的にしようとするが、説明だけでは理解できない。
システムの振舞いを説明することは、直接操作を通じてその操作を探索し解釈できるのと同じではない。
この区別は特に科学的分野において重要である: LLMs に頼り、引用し、文献レビューを制作する科学者は、これらのモデルがどのようにして生成したテキストをどのように処理し、変換するかに直接関知する手段をほとんど持っていない。
この進行中の設計研究プロジェクトでは、説明可能性から解釈的エンゲージメントへの移行について論じます。
このシフトは、ユーザがモデルの中間表現を操作できるようにするために、システムの振る舞いを考慮から遠ざかる。
テキストの奨学金、計算詩学、フロンティア、グロス、インデックス、アノテーションシステムなどの読み書き技術の歴史に基づき、非専門家が言語モデルの表現空間に介入できる対話的環境として解釈的インタフェースを提案する。
より具体的には、そのようなインターフェイスは、ユーザーがトークンを選択して、モデルの中間層を通してその軌跡に従うことを可能にする。
このようにして、コンテキストが処理されるにつれて意味的な位置がどう変化するかを観察し、有用または意味のある変換に注釈を付けることができる。
読者がアノテーションやブックマークを通じて、本の中で独自のマップを作成するのと同じように、解釈的インタフェースによって、ユーザーはモデルの内部表現の読み書きができる。
このプロジェクトの目的は、純粋に技術的ではなく、相互作用設計プロジェクトとしてのAI解釈可能性を再編成し、解釈的エンゲージメントと科学知識の批判的スチュワードシップをサポートするAI経由の読書への道を開くことである。
関連論文リスト
- Textarium: Entangling Annotation, Abstraction and Argument [2.2344764434954256]
Textariumは、テキストの解釈中にアノテーション、抽象化、議論を接続するWebベースの環境である。
我々は,解釈過程を透明化し,デジタル物語の中で共有可能にする読み書き手法を開発した。
論文 参考訳(メタデータ) (2025-09-16T15:46:00Z) - ConText: Driving In-context Learning for Text Removal and Segmentation [59.6299939669307]
本稿では,視覚的インコンテキスト学習パラダイムを光学的文字認識タスクに適用する最初の研究について述べる。
画像除去・分離方式のタスクチェイン・コンポジトリを提案する。
また、連鎖したプロンプトパターンを潜在クエリ表現に統合するコンテキスト認識アグリゲーションも導入する。
論文 参考訳(メタデータ) (2025-06-04T10:06:32Z) - Data2Concept2Text: An Explainable Multilingual Framework for Data Analysis Narration [42.95840730800478]
本稿では,データの集合を解釈し,基礎となる特徴を抽象化し,それを自然言語で記述する,完全な説明可能なシステムを提案する。
このシステムは、2つの重要な段階に依存している: (i)データから出現する特性を識別し、それらを抽象概念に変換する、(ii)これらの概念を自然言語に変換する。
論文 参考訳(メタデータ) (2025-02-13T11:49:48Z) - Disentangling Dense Embeddings with Sparse Autoencoders [0.0]
スパースオートエンコーダ(SAE)は、複雑なニューラルネットワークから解釈可能な特徴を抽出する可能性を示している。
大規模言語モデルからの高密度テキスト埋め込みに対するSAEの最初の応用の1つを提示する。
その結果,解釈可能性を提供しながら意味的忠実さを保っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-01T15:46:22Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
まず、VLLMに対して、視覚的文脈に関連して、被験者の明らかな感情を自然言語で記述するように促す。
第二に、記述は視覚入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - AmadeusGPT: a natural language interface for interactive animal
behavioral analysis [65.55906175884748]
動作の自然言語記述をマシン実行可能なコードに変換する自然言語インタフェースであるAmadeusGPTを紹介する。
MABE 2022の動作課題タスクで最先端のパフォーマンスを実現できることを示す。
アマデウスGPTは、深い生物学的知識、大規模言語モデル、そしてコアコンピュータビジョンモジュールをより自然に知的なシステムに統合する新しい方法を提示している。
論文 参考訳(メタデータ) (2023-07-10T19:15:17Z) - Semantic Interactive Learning for Text Classification: A Constructive
Approach for Contextual Interactions [0.0]
本稿では,テキスト領域に対するセマンティック対話学習という新しいインタラクションフレームワークを提案する。
構築的および文脈的フィードバックを学習者に取り入れることで、人間と機械間のよりセマンティックなアライメントを実現するアーキテクチャを見つけることができる。
本研究では,人間の概念的修正を非外挿訓練例に翻訳するのに有効なSemanticPushという手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T08:13:45Z) - Leveraging Explanations in Interactive Machine Learning: An Overview [10.284830265068793]
説明はAIと機械学習(ML)コミュニティへの関心が高まっている。
本稿では,対話的能力と説明が組み合わさった研究の概要について述べる。
論文 参考訳(メタデータ) (2022-07-29T07:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。