論文の概要: How desirable is alignment between LLMs and linguistically diverse human users?
- arxiv url: http://arxiv.org/abs/2502.12884v1
- Date: Tue, 18 Feb 2025 14:16:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:02:47.318579
- Title: How desirable is alignment between LLMs and linguistically diverse human users?
- Title(参考訳): LLMと言語学的に多様なユーザとの整合性はどの程度望ましいか?
- Authors: Pia Knoeferle, Sebastian Möller, Dorothea Kolossa, Veronika Solopova, Georg Rehm,
- Abstract要約: 我々は,Large Language Models (LLMs) が,言語利用において多種多様である可能性のあるユーザに対して,言語行動の適応や調整を可能にすることが,いかに望ましいかを論じる。
- 参考スコア(独自算出の注目度): 14.688485619416067
- License:
- Abstract: We discuss how desirable it is that Large Language Models (LLMs) be able to adapt or align their language behavior with users who may be diverse in their language use. User diversity may come about among others due to i) age differences; ii) gender characteristics, and/or iii) multilingual experience, and associated differences in language processing and use. We consider potential consequences for usability, communication, and LLM development.
- Abstract(参考訳): 我々は,Large Language Models (LLMs) が,言語利用において多種多様である可能性のあるユーザに対して,言語行動の適応や調整を可能にすることが,いかに望ましいかを論じる。
ユーザの多様性は、それらによってもたらされるかもしれない
i) 年齢差
二 性別の特徴及び/又は
三 多言語体験及び言語処理及び使用の相違
ユーザビリティ、コミュニケーション、LLM開発に対する潜在的な影響について検討する。
関連論文リスト
- Benchmarking Linguistic Diversity of Large Language Models [14.824871604671467]
本稿では,言語モデルによる人間の言語的豊かさの保全を検討することの重要性を強調する。
言語多様性の観点からLLMを評価するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-13T16:46:03Z) - Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
Lensは、大規模言語モデル(LLM)の多言語機能を強化する新しいアプローチである
LLMの上位層から言語に依存しない、言語固有のサブ空間内の隠された表現を操作できる。
既存のポストトレーニング手法に比べて計算資源がはるかに少ないため、優れた結果が得られる。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Getting More from Less: Large Language Models are Good Spontaneous Multilingual Learners [67.85635044939836]
大きな言語モデル(LLM)は印象的な言語機能を示している。
本研究では,LLMの自然多言語アライメント改善について検討する。
質問翻訳データ(すなわち注釈付き回答なし)に基づいて学習したLLMは、英語と幅広い言語との整合を促進できることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:46:19Z) - Exploring Multilingual Concepts of Human Value in Large Language Models: Is Value Alignment Consistent, Transferable and Controllable across Languages? [34.38469832305664]
本稿では,AIの安全性の重要性から,人間の価値観に関する概念(すなわち,価値の概念)に焦点を当てる。
我々はまず,LLMにおける価値概念の存在を多言語形式で実証的に確認した。
これらの概念の言語間特性に関するさらなる分析は、言語資源の相違から生じる3つの特徴を明らかにしている。
論文 参考訳(メタデータ) (2024-02-28T07:18:39Z) - Multi-lingual and Multi-cultural Figurative Language Understanding [69.47641938200817]
図形言語は人間のコミュニケーションに浸透するが、NLPでは比較的過小評価されている。
Hindi, Indonesian, Javanese, Kannada, Sundanese, Swahili, Yorubaの7つの多様な言語に関するデータセットを作成しました。
我々のデータセットから,各言語は,同じ領域から派生した言語間で最も高い重なり合いを持つ,図形表現の文化的・地域的概念に依存していることが明らかとなった。
全ての言語は、事前学習データと微調整データの可用性を反映した性能の変化により、英語と比較して大きな欠陥がある。
論文 参考訳(メタデータ) (2023-05-25T15:30:31Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - Capturing the diversity of multilingual societies [0.0]
我々は、理論とデータ駆動の観点から、言語シフトにおける作業プロセスについて考察する。
twitterと国勢調査データを用いた多言語社会における言語空間パターンの大規模実証研究は、幅広い多様性をもたらす。
本稿では,他言語の学習が促進され,両言語が絶滅危惧言語の使用を好む場合に,言語共存が達成できるモデルを提案する。
論文 参考訳(メタデータ) (2021-05-06T10:27:43Z) - How individuals change language [1.2437226707039446]
我々は,多種多様な個人レベルの言語行動を含む,非常に一般的な数学的モデルを導入する。
異なる仮定の下で複数の言語における定冠詞と不定冠詞の実証的な変化の可能性を比較した。
幼児期の言語習得の誤りを主眼とする言語変化の説明は、歴史的データによって非常に弱く支持されている。
論文 参考訳(メタデータ) (2021-04-20T19:02:49Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。