パーソナリティベクター:モデル融合による大規模言語モデルのパーソナリティ調整

パーソナリティベクター:モデル融合による大規模言語モデルのパーソナリティ調整

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19727v1 発行種別:新規

要旨:パーソナライズされたAIシステムの需要の高まりを受け、大規模言語モデル(LLM)の挙動を、個性などの人的特性に合致させることに関心が集まっています。従来、LLMに個性を付与する試みは有望な結果を示していますが、人間の特性の連続性と多次元性を捉えることに苦労しています。本研究では、モデルマージングによるLLMにおける個性変調の新たな手法を提案します。具体的には、特定のパーソナリティ特性についてファインチューニングされたモデルの重みから、事前学習済みモデルの重みを差し引くことで、パーソナリティベクトルを構築します。パーソナリティベクトルをマージすることにより、追加のトレーニングなしで、LLMに望ましいパーソナリティ特性を持たせることができます。広範な実験により、パーソナリティベクトルは特性の強度の連続的な制御を可能にし、複数の特性の合成をサポートすることが示されました。さらに、パーソナリティベクトルは様々な下流モデルに転移可能であり、個性の汎化可能な表現をエンコードしていることを示唆しています。コードはこちらで公開しています。

原文(英語)を表示

Title (EN): Personality Vector: Modulating Personality of Large Language Models by Model Merging

arXiv:2509.19727v1 Announce Type: new
Abstract: Driven by the demand for personalized AI systems, there is growing interest in aligning the behavior of large language models (LLMs) with human traits such as personality. Previous attempts to induce personality in LLMs have shown promising results, but they struggle to capture the continuous and multidimensional nature of human traits. In this work, we propose a novel method for personality modulation in LLMs via model merging. Specifically, we construct personality vectors by subtracting the weights of a pre-trained model from those of the fine-tuned model on a given personality trait. By merging personality vectors, we enable LLMs to exhibit desired personality traits without additional training. Extensive experiments show that personality vectors enable continuous control over trait intensity and support the composition of multiple traits. Furthermore, personality vectors transfer across diverse downstream models, suggesting that they encode generalizable representations of personality. Our code is available at here.

Published: 2025-09-24 19:00 UTC


コメントする