論文の概要: Effective Voice: Beyond Exit and Affect in Online Communities
- arxiv url: http://arxiv.org/abs/2009.12470v2
- Date: Sat, 20 Feb 2021 17:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 00:22:28.689250
- Title: Effective Voice: Beyond Exit and Affect in Online Communities
- Title(参考訳): 効果的な声:オンラインコミュニティの出口と影響を超えて
- Authors: Seth Frey and Nathan Schneider
- Abstract要約: オンラインコミュニティは、ユーザの自己表現に十分な機会を提供するが、平均的なユーザがコミュニティポリシーを直接コントロールする手段がない。
本稿では,制度的ガバナンスのメカニズムを定め,参加者の声をよりよく聞き取るための戦略と手法を明らかにする。
- 参考スコア(独自算出の注目度): 11.01413722940405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online communities provide ample opportunities for user self-expression but
generally lack the means for average users to exercise direct control over
community policies. This paper sets out to identify a set of strategies and
techniques through which the voices of participants might be better heard
through defined mechanisms for institutional governance. Drawing on Albert O.
Hirschman's distinction between "exit" and "voice" in institutional life, it
introduces a further distinction between two kinds of participation: effective
voice, as opposed to the far more widespread practices of affective voice.
Effective voice is a form of individual or collective speech that brings about
a binding effect according to transparent processes. Platform developers and
researchers might explore this neglected form of voice by introducing
mechanisms for authority and accountability, collective action, and community
evolution.
- Abstract(参考訳): オンラインコミュニティは、ユーザーの自己表現に十分な機会を提供するが、概して、平均的なユーザーがコミュニティポリシーを直接コントロールする手段を欠いている。
本稿では,制度的ガバナンスのメカニズムを定め,参加者の声をよりよく聞き取れるような戦略と手法のセットを特定することを目的とする。
アルベルト・H・ヒルシュマンによる制度生活における「外部」と「声」の区別に基づいて、より広範な感情的音声の実践とは対照的に、効果的な音声という2つの種類の参加を更に区別する。
効果的な音声は、透明なプロセスに従って結合効果をもたらす個人的または集団的な音声の形式である。
プラットフォーム開発者や研究者は、権威と説明責任、集団行動、コミュニティの進化のメカニズムを導入することで、この無視された形式の音声を探るかもしれない。
関連論文リスト
- From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Rational Silence and False Polarization: How Viewpoint Organizations and Recommender Systems Distort the Expression of Public Opinion [4.419843514606336]
オンライン談話の観察者がコミュニティの見解を信じるようになると、プラットフォームがどう影響するかを示す。
我々は,イデオロギー組織からのシグナルが修辞的強度の増大を促し,中程度の利用者の「合理的な沈黙」につながることを示す。
我々は、イデオロギー組織からの信号への露出を減らすなど、実装可能な実践的な戦略を特定できる。
論文 参考訳(メタデータ) (2024-03-10T17:02:19Z) - Revealing Emotional Clusters in Speaker Embeddings: A Contrastive
Learning Strategy for Speech Emotion Recognition [27.098672790099304]
感情情報は話者埋め込みに間接的に埋め込まれていると推定され、その未利用に繋がった。
本研究は,話者内クラスタの形で,感情と最先端の話者埋め込みの直接的かつ有用な関係を明らかにする。
音声の感情認識のための感情非ラベルデータに適用する新しいコントラスト事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-19T20:31:53Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Controllable Generation of Artificial Speaker Embeddings through
Discovery of Principal Directions [29.03308434639149]
本研究では,実際の人間にリンクできない人工話者埋め込みを生成する手法を提案する。
制御可能な埋め込みは、訓練中に実際の人間の埋め込みを条件とした音声合成システムに供給することができる。
論文 参考訳(メタデータ) (2023-10-26T15:54:12Z) - Improving Speaker Diarization using Semantic Information: Joint Pairwise
Constraints Propagation [53.01238689626378]
本稿では,話者ダイアリゼーションシステムにおける意味情報を活用する新しい手法を提案する。
音声言語理解モジュールを導入し、話者関連意味情報を抽出する。
本稿では,これらの制約を話者ダイアリゼーションパイプラインに統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-19T09:13:30Z) - Self-supervised Speaker Recognition Training Using Human-Machine
Dialogues [22.262550043863445]
顧客とスマートスピーカーデバイス間の対話を利用して、話者認識モデルを事前訓練する方法を検討する。
本稿では,その音響的均一性に基づいて対話から選択的に学習する効果的な拒絶機構を提案する。
実験により,提案手法は従来よりも優れた性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-02-07T19:44:54Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Disentangled Speech Embeddings using Cross-modal Self-supervision [119.94362407747437]
本研究では,映像における顔と音声の自然な相互同期を生かした自己教師型学習目標を提案する。
我々は,(1)両表現に共通する低レベルの特徴を共有する2ストリームアーキテクチャを構築し,(2)これらの要因を明示的に解消する自然なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-02-20T14:13:12Z) - VoiceCoach: Interactive Evidence-based Training for Voice Modulation
Skills in Public Speaking [55.366941476863644]
ピッチ,ボリューム,速度などの音声特性の変調は,公的な発話を成功させる上で極めて重要である。
音声変調スキルの効果的な訓練を容易にする対話型エビデンスに基づくアプローチであるVoiceCoachを提案する。
論文 参考訳(メタデータ) (2020-01-22T04:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。