論文の概要: Towards a Humanized Social-Media Ecosystem: AI-Augmented HCI Design Patterns for Safety, Agency & Well-Being
- arxiv url: http://arxiv.org/abs/2511.05875v1
- Date: Sat, 08 Nov 2025 06:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.631507
- Title: Towards a Humanized Social-Media Ecosystem: AI-Augmented HCI Design Patterns for Safety, Agency & Well-Being
- Title(参考訳): 人間化されたソーシャルメディアエコシステムを目指して:AIを活用した安全・エージェンシー・ウェルビーイングのためのHCIデザインパターン
- Authors: Mohd Ruhul Ameen, Akif Islam,
- Abstract要約: ソーシャルプラットフォームは何十億もの人々を結び付けているが、そのエンゲージメント優先のアルゴリズムはユーザーに対してではなく、ユーザーに対して機能することが多い。
我々は,プラットフォームロジックとインターフェースの間に位置するユーザが所有する,説明可能な仲介者を提案する。
HL-AIは、プラットフォーム協力を必要とせず、実践的でモーメント間制御を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social platforms connect billions of people, yet their engagement-first algorithms often work on users rather than with them, amplifying stress, misinformation, and a loss of control. We propose Human-Layer AI (HL-AI)--user-owned, explainable intermediaries that sit in the browser between platform logic and the interface. HL-AI gives people practical, moment-to-moment control without requiring platform cooperation. We contribute a working Chrome/Edge prototype implementing five representative pattern frameworks--Context-Aware Post Rewriter, Post Integrity Meter, Granular Feed Curator, Micro-Withdrawal Agent, and Recovery Mode--alongside a unifying mathematical formulation balancing user utility, autonomy costs, and risk thresholds. Evaluation spans technical accuracy, usability, and behavioral outcomes. The result is a suite of humane controls that help users rewrite before harm, read with integrity cues, tune feeds with intention, pause compulsive loops, and seek shelter during harassment, all while preserving agency through explanations and override options. This prototype offers a practical path to retrofit today's feeds with safety, agency, and well-being, inviting rigorous cross-cultural user evaluation.
- Abstract(参考訳): ソーシャルプラットフォームは何十億もの人々を結び付けていますが、そのエンゲージメント優先のアルゴリズムは、ストレス、誤情報、制御の喪失を増幅し、ユーザよりもユーザ上で機能することが多いのです。
我々は,プラットフォームロジックとインターフェースの間に位置するユーザが所有する,説明可能な仲介者を提案する。
HL-AIは、プラットフォーム協力を必要とせず、実践的でモーメント間制御を提供する。
動作中のChrome/Edgeのプロトタイプとして,コンテキスト認識ポストリライター,ポストインテリジェンスメータ,グラニュラフィードキュレーター,マイクロアウィドラヴァルエージェント,リカバリモードという5つの代表的なパターンフレームワークを実装しています。
評価は技術的正確性、ユーザビリティ、行動的な結果にまたがる。
その結果は、ユーザーが傷つく前に書き直し、整合性のある手がかりで読み上げ、フィードを意図的にチューニングし、強制ループを一時停止し、ハラスメントの間は避難所を探すための一連のヒューマンコントロールだ。
このプロトタイプは、今日のフィードを安全、エージェンシー、幸福に再現する実践的な方法を提供し、厳格な異文化のユーザー評価を招いている。
関連論文リスト
- Past, Present, and Future of Bug Tracking in the Generative AI Era [1.3241176321860364]
従来のバグトラッキングシステムは、手動のレポート、再生、トリアージ、解像度に大きく依存している。
我々は、インテリジェントで大規模言語モデル(LLM)による自動化によって既存のツールを拡張するAIベースのバグトラッキングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-09T09:42:30Z) - Impatient Users Confuse AI Agents: High-fidelity Simulations of Human Traits for Testing Agents [58.00130492861884]
TraitBasisは、AIエージェントを体系的にストレステストするための軽量でモデルに依存しない方法である。
TraitBasisは、ステアブルなユーザ特性に対応するアクティベーション空間で方向を学習する。
We observed on average a 2%-30% performance degradation on $tau$-Trait across frontier model。
論文 参考訳(メタデータ) (2025-10-06T05:03:57Z) - The STAR-XAI Protocol: A Framework for Inducing and Verifying Agency, Reasoning, and Reliability in AI Agents [0.0]
大きな推論モデルの「ブラックボックス」の性質は、信頼性と透明性の限界を示す。
本稿では,信頼性の高いAIエージェントをトレーニングし,運用するための新たな運用方法論であるSTAR-XAIプロトコルを紹介する。
我々の方法は、明示的で進化する象徴的ルールブックによって支配される構造化ソクラテス的対話として、人間とAIの相互作用を再編成する。
論文 参考訳(メタデータ) (2025-09-22T16:24:17Z) - HumanAgencyBench: Scalable Evaluation of Human Agency Support in AI Assistants [5.4831302830611195]
エージェントの哲学的・科学的理論とAIを用いた評価手法を統合することにより、人間エージェントの考え方を発展させる。
我々は、典型的なAIのユースケースに基づいて、6次元の人間エージェントを持つスケーラブルで適応的なベンチマークであるHumanBench(HAB)を開発した。
論文 参考訳(メタデータ) (2025-09-10T11:10:10Z) - Oyster-I: Beyond Refusal -- Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - Personalized Constitutionally-Aligned Agentic Superego: Secure AI Behavior Aligned to Diverse Human Values [0.6640968473398455]
スーパーエージェントがユーザー選択型「クリードコンスティチューション」を参考にAIプランニングを主導
リアルタイムコンプライアンス執行機関は、これらの憲法に対する計画を検証する。
システムは最大98.3%の有害スコアの減少とほぼ完全な拒絶率を達成する。
論文 参考訳(メタデータ) (2025-06-08T20:31:26Z) - Collaborative Instance Object Navigation: Leveraging Uncertainty-Awareness to Minimize Human-Agent Dialogues [54.81155589931697]
協調インスタンスオブジェクトナビゲーション(CoIN)は、エージェントがターゲットインスタンスに関する不確実性を積極的に解決する新しいタスク設定である。
未認識者に対するエージェント・ユーザインタラクション(AIUTA)の新たな学習自由化手法を提案する。
まず、オブジェクト検出時に、セルフクエチオナーモデルがエージェント内で自己対話を開始し、完全かつ正確な観察記述を得る。
インタラクショントリガーモジュールは、人間に質問するか、継続するか、ナビゲーションを停止するかを決定する。
論文 参考訳(メタデータ) (2024-12-02T08:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。