論文の概要: Deceptive Patterns of Intelligent and Interactive Writing Assistants
- arxiv url: http://arxiv.org/abs/2404.09375v1
- Date: Sun, 14 Apr 2024 23:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 14:18:53.647942
- Title: Deceptive Patterns of Intelligent and Interactive Writing Assistants
- Title(参考訳): 知的・インタラクティブな筆記アシスタントの知覚パターン
- Authors: Karim Benharrak, Tim Zindulka, Daniel Buschek,
- Abstract要約: 大規模言語モデルは、新しいインテリジェントでインタラクティブな書き込みアシスタントの不可欠な部分となっている。
これにより、この新しいタイプの広汎なシステムは、偽造デザインパターンの潜在的なターゲットとなる。
文献からAI記述アシスタントの新たなコンテキストへ、いくつかの偽造パターンを概念的に転送する。
- 参考スコア(独自算出の注目度): 20.353198704072206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models have become an integral part of new intelligent and interactive writing assistants. Many are offered commercially with a chatbot-like UI, such as ChatGPT, and provide little information about their inner workings. This makes this new type of widespread system a potential target for deceptive design patterns. For example, such assistants might exploit hidden costs by providing guidance up until a certain point before asking for a fee to see the rest. As another example, they might sneak unwanted content/edits into longer generated or revised text pieces (e.g. to influence the expressed opinion). With these and other examples, we conceptually transfer several deceptive patterns from the literature to the new context of AI writing assistants. Our goal is to raise awareness and encourage future research into how the UI and interaction design of such systems can impact people and their writing.
- Abstract(参考訳): 大規模言語モデルは、新しいインテリジェントでインタラクティブな書き込みアシスタントの不可欠な部分となっている。
多くはChatGPTのようなチャットボットのようなUIで商業的に提供されており、内部動作に関する情報はほとんど提供されていない。
これにより、この新しいタイプの広汎なシステムは、偽造デザインパターンの潜在的なターゲットとなる。
例えば、そのようなアシスタントは隠れたコストを利用して、ある時点までガイダンスを提供して、残りを見るための料金を求める。
別の例として、望ましくないコンテンツ/編集を、より長い生成または修正されたテキスト片(例えば、表現された意見に影響を与えるために)にこっそり忍び込むことがある。
これらと他の例により、文献からAI記述アシスタントの新しい文脈へ、いくつかの偽りのパターンを概念的に転送する。
私たちのゴールは、認識を高め、そのようなシステムのUIとインタラクション設計が人々とその執筆にどのように影響するかについて、将来の研究を促進することです。
関連論文リスト
- Towards Full Authorship with AI: Supporting Revision with AI-Generated
Views [3.109675063162349]
大きな言語モデル(LLM)は、ユーザーがプロンプトを通じてテキストを生成できるようにすることで、ツールを書く際に新しいユーザーインターフェイス(UI)パラダイムを形作っている。
このパラダイムは、ユーザからシステムへの創造的なコントロールを移行することで、書き込みプロセスにおけるユーザのオーサシップと自律性を低下させる。
テキストフォーカス(Textfocals)は,文章作成におけるユーザの役割を強調する,人間中心のアプローチを調査するためのプロトタイプである。
論文 参考訳(メタデータ) (2024-03-02T01:11:35Z) - GhostWriter: Augmenting Collaborative Human-AI Writing Experiences
Through Personalization and Agency [1.7707677585873678]
大規模言語モデル(LLM)はより広く普及し、様々な形式の筆記補助を提供するのにユビキタスな用途を見出した。
我々はGhostWriterを紹介した。GhostWriterはAIによって強化された書き込みデザインプローブで、ユーザーは強化されたエージェンシーとパーソナライゼーションを実行できる。
GhostWriterを2つの異なる書き込みタスクで使用した18人の参加者を対象に、ユーザがパーソナライズされたテキスト世代の作成を支援し、システムの書き込みスタイルを制御する複数の方法を提供する。
論文 参考訳(メタデータ) (2024-02-13T23:48:59Z) - Learning From Free-Text Human Feedback -- Collect New Datasets Or Extend
Existing Ones? [57.16050211534735]
一般的な対話データセットにおける自由文フィードバックのタイプと頻度について検討する。
この結果から, エラータイプ, ユーザ応答タイプ, それらの関係性など, 調査したデータセットの構成に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2023-10-24T12:01:11Z) - Large language models in textual analysis for gesture selection [2.5169522472327404]
大規模言語モデル(LLM)を用いて,これらの強力なデータモデルがジェスチャ解析や生成に適応可能であることを示す。
具体的には、最小限のプロンプトに基づいてデザイナの意図を実現できるコンテキスト固有のジェスチャーを提案するツールとしてChatGPTを使用しました。
論文 参考訳(メタデータ) (2023-10-04T14:46:37Z) - Suggestion Lists vs. Continuous Generation: Interaction Design for
Writing with Generative Models on Mobile Devices Affect Text Length, Wording
and Perceived Authorship [27.853155569154705]
モバイル端末上でAIで書き込むための2つのユーザインタフェースを提示し、イニシアティブとコントロールのレベルを制御する。
AIの提案では、人々は積極的に書くことは少なかったが、著者であると感じた。
どちらの設計においても、AIはテキストの長さを長くし、言葉に影響を与えていると認識された。
論文 参考訳(メタデータ) (2022-08-01T13:57:11Z) - WAVPROMPT: Towards Few-Shot Spoken Language Understanding with Frozen
Language Models [57.557319372969495]
大量のテキストで事前訓練された大規模自動回帰言語モデルは、新しい自然言語タスクを実行するという印象的な能力を示している。
近年の研究では、エンコーダを訓練し、画像のエンコードを埋め込みにすることで、このような数発の学習能力をテキスト画像設定にまで拡張できることが示されている。
そこで我々は,wav2vecモデルを微調整して,言語モデルによって理解された音声埋め込みのシーケンスを生成する,新しい音声理解フレームワークWavPromptを提案する。
論文 参考訳(メタデータ) (2022-03-29T19:08:55Z) - CoAuthor: Designing a Human-AI Collaborative Writing Dataset for
Exploring Language Model Capabilities [92.79451009324268]
我々は,GPT-3の創造的かつ議論的な記述を支援する能力を明らかにするために設計されたデータセットであるCoAuthorを提案する。
我々は、CoAuthorがGPT-3の言語、アイデア、コラボレーション機能に関する問題に対処できることを実証した。
インタラクション設計に関して,この作業がLMの約束や落とし穴に関して,より原則化された議論を促進する可能性について論じる。
論文 参考訳(メタデータ) (2022-01-18T07:51:57Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - A Taxonomy of Empathetic Response Intents in Human Social Conversations [1.52292571922932]
自然言語処理コミュニティでは、オープンドメインの会話エージェントがますます人気を高めている。
課題のひとつは、共感的な方法で会話できるようにすることです。
現在のニューラルレスポンス生成手法は、大規模な会話データからエンドツーエンドの学習のみに頼って対話を生成する。
近年,対話act/intentモデリングとニューラルレスポンス生成を組み合わせることが期待されている。
論文 参考訳(メタデータ) (2020-12-07T21:56:45Z) - Dialog without Dialog Data: Learning Visual Dialog Agents from VQA Data [75.7372052716556]
『ダイアログなしダイアログ』ではエージェントが言語レベルの監督なしに新しいタスクに適応できるダイアログモデルを開発する必要がある。
意図と言語を分解することにより、新しいタスクを微調整した後の言語的ドリフトを最小限に抑える。
論文 参考訳(メタデータ) (2020-07-24T19:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。