論文の概要: I, Robot? Socio-Technical Implications of Ultra-Personalized AI-Powered AAC; an Autoethnographic Account
- arxiv url: http://arxiv.org/abs/2509.13671v1
- Date: Wed, 17 Sep 2025 03:47:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.706833
- Title: I, Robot? Socio-Technical Implications of Ultra-Personalized AI-Powered AAC; an Autoethnographic Account
- Title(参考訳): I, Robot?Ultra-Personalized AI-Powered AACの社会学的意味
- Authors: Tobias Weinberg, Ricardo E. Gonzalez Penuela, Stephanie Valencia, Thijs Roumen,
- Abstract要約: メッセージ合成のためのジェネリックAI自動補完は、しばしば個人的なアイデンティティのニュアンスを捉えず、かなりの編集を必要とする。
本研究では,(1)主著者のAAC通信データの収集に7ヶ月を要し,(2)このデータセット上でモデルを微調整し,(3)パーソナライズされたAI提案の日常的使用に3ヶ月を要した。
本研究は,パーソナライゼーションの価値と,プライバシや著者意識,自己表現の境界線を曖昧にすることの意義を強調した。
- 参考スコア(独自算出の注目度): 6.9090118235124995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generic AI auto-complete for message composition often fails to capture the nuance of personal identity, requiring significant editing. While harmless in low-stakes settings, for users of Augmentative and Alternative Communication (AAC) devices, who rely on such systems for everyday communication, this editing burden is particularly acute. Intuitively, the need for edits would be lower if language models were personalized to the communication of the specific user. While technically feasible, such personalization raises socio-technical questions: what are the implications of logging one's own conversations, and how does personalization affect privacy, authorship, and control? We explore these questions through an autoethnographic study in three phases: (1) seven months of collecting all the lead author's AAC communication data, (2) fine-tuning a model on this dataset, and (3) three months of daily use of personalized AI suggestions. We reflect on these phases through continuous diary entries and interaction logs. Our findings highlight the value of personalization as well as implications on privacy, authorship, and blurring the boundaries of self-expression.
- Abstract(参考訳): メッセージ合成のためのジェネリックAI自動補完は、しばしば個人的なアイデンティティのニュアンスを捉えず、かなりの編集を必要とする。
AAC(Augmentative and Alternative Communication)デバイスのユーザにとって、このようなシステムは日常的なコミュニケーションに頼っているが、この編集負担は特に深刻である。
直感的には、言語モデルが特定のユーザのコミュニケーションにパーソナライズされた場合、編集の必要性は低いだろう。
技術的には実現可能だが、このようなパーソナライゼーションは社会技術的疑問を提起する: 自分の会話をロギングすることの意味と、パーソナライゼーションがプライバシ、オーサシップ、コントロールにどのように影響するか?
本研究では,(1)主著者のAAC通信データの収集に7ヶ月を要し,(2)このデータセット上でモデルを微調整し,(3)パーソナライズされたAI提案の日常的使用に3ヶ月を要した。
我々は、これらのフェーズを、連続した日記エントリと対話ログを通して反映する。
本研究は,パーソナライゼーションの価値と,プライバシや著者意識,自己表現の境界線を曖昧にすることの意義を強調した。
関連論文リスト
- HumAIne-Chatbot: Real-Time Personalized Conversational AI via Reinforcement Learning [0.4931504898146351]
textbfHumAIne-chatbotはAIによる会話エージェントで、新しいユーザプロファイリングフレームワークを通じて応答をパーソナライズする。
ライブインタラクションの間、オンライン強化学習エージェントは暗黙の信号を組み合わせることで、ユーザ毎のモデルを洗練する。
その結果、パーソナライズ機能を有効にすると、ユーザ満足度、パーソナライズ精度、タスク達成度が一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-09-04T15:16:38Z) - PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data [76.21047984886273]
パーソナライゼーションは、AIアシスタント、特に個々のユーザーと連携するプライベートAIモデルのコンテキストにおいて重要である。
このようなデータのセンシティブな性質のため、AIモデルのユーザ理解能力を評価するためのデータセットは公開されていない。
多様なユーザプロファイルを作成する合成データ生成パイプラインと、人間の活動をシミュレートするプライベートドキュメントを導入する。
論文 参考訳(メタデータ) (2025-02-28T00:43:35Z) - REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - TwIPS: A Large Language Model Powered Texting Application to Simplify Conversational Nuances for Autistic Users [0.0]
自閉症の個人はしばしば、感情的な声調や非文学的なニュアンスを伝え、解釈するのに困難を経験する。
大規模言語モデル(LLM)を利用したプロトタイプテキストアプリケーションTwIPSについて述べる。
我々は、AIベースのシミュレーションと会話スクリプトを利用して、TwIPSを8人の自閉症参加者で評価する。
論文 参考訳(メタデータ) (2024-07-25T04:15:54Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Learning From Free-Text Human Feedback -- Collect New Datasets Or Extend
Existing Ones? [57.16050211534735]
一般的な対話データセットにおける自由文フィードバックのタイプと頻度について検討する。
この結果から, エラータイプ, ユーザ応答タイプ, それらの関係性など, 調査したデータセットの構成に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2023-10-24T12:01:11Z) - Suggestion Lists vs. Continuous Generation: Interaction Design for
Writing with Generative Models on Mobile Devices Affect Text Length, Wording
and Perceived Authorship [27.853155569154705]
モバイル端末上でAIで書き込むための2つのユーザインタフェースを提示し、イニシアティブとコントロールのレベルを制御する。
AIの提案では、人々は積極的に書くことは少なかったが、著者であると感じた。
どちらの設計においても、AIはテキストの長さを長くし、言葉に影響を与えていると認識された。
論文 参考訳(メタデータ) (2022-08-01T13:57:11Z) - Bilateral Personalized Dialogue Generation with Dynamic Persona-Aware
Fusion [3.5433229509828155]
マルチタスク・トランスファー・ラーニングによる動的ペルソナ・アウェア・フュージョンを用いた双方向対話生成手法を提案する。
実験の結果,提案手法は自動評価と手動評価の両面で,いくつかの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-15T03:21:19Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。