アドバイス11:生成AIへのキャラ付けは便利ですが、用法用量を守って

インターネットに存在するプロンプト例をみていると、「あなたは◯◯です」「あなたは優秀な△△です」「□□として振る舞ってください」と言った形の「キャラ付け」をしているプロンプトをよく見かけます。

それ自体は特に問題なく、実際にこのようなキャラ付けで応答の内容に一定の変化が及ぶ可能性が示唆されています [1] 。
ただ、それで回答の質が明確に上昇するのかと言われるとそうではなく、むしろあらゆる局面で使っていると、十分な効果が発揮できなかったり、逆に正確性を欠いてしまう可能性もあるのです。

キャラクターの維持をしようとした結果、正確さが低下する?

キャラクターを与えられたLLMは、「私はこの役割として話しているか?」「口調・視点・価値観は合っているか?」という、キャラ付けに関する制約を満たそうとします。その結果、純粋な指示の追従を行うタスクでは、人格なしモデルにわずかに劣ると考えられる、言い換えると「モデルの最適化リソースが『キャラクターらしさの維持』に割かれる」ことが示唆されています [2] 。

それに加えて、最初にキャラ付けをしてからずっと同じチャットでやり取りをしていると徐々にキャラクターっぽさが薄れてきて、同じチャットで100回程度のやり取りを繰り返すと、ほぼキャラ付けをしていない状態と同じになってしまう可能性もあります [2] 。

このような問題への対策としては、生成AIとの議論が煮詰まってきたら、一度その内容を要約してもらって新しいチャットに持ち越すようにしたり、ChatGPTならば「新しいチャットに分岐します」機能を使ってチャットを分岐させることで、これまでの内容を維持しつつリスクを下げることが可能と考えられます。
また、正確さが最優先のタスクにおいては、あえてキャラ付けをしない使い方をした方が無難かもしれません。

NotebookLMで生成

「有名なキャラクター」の名前でキャラ付けしても、思ったより反映されない?

「有名キャラクターだから上手に演じられる」と感じている方も多いかもしれません。しかし、短期間の会話(会話初期の段階)であればその恩恵を受けられるかもしれませんが、長期的にみると、事前学習された知識よりリアルタイムで蓄積される会話の文脈・情報を優先するようになり、キャラクターの知名度による差は縮小していくことが示唆されています [3] 。

つまり、キャラ付けをしたいのであれば、どのような「性格」にしたいのかを具体的に指示した方が、うまく機能すると考えられます。

また、生成AIのモデルは基本的に安全性が重視されており、かつユーザーに対して好意的なやり取りをするよう訓練されていることがほとんどのため、道徳的にネガティブなキャラクターや、対立的・敵対的な関係を持つキャラクターの再現においては、著しく性能が低下する可能性があります [3] 。

ゆえに、このような性質・性格のキャラ付けは、思っているより効果が現れないかもしれません。
生成AIは服薬指導などのロールプレイ等でも活用できますが、その相手として「怒りっぽい短期な人」を演じさせたり、「相手と明確に対立している状況」をシミュレートするのは、少々リスクが高いかもしれません。

NotebookLMで生成

キャラ付けの時は、何に気をつけたらいい?

生成AIにキャラ付けをする際、具体的にどのような点に注意すれば良いのかをまとめてみました。

1. 有名キャラに頼らず、キャラ付けの指示は具体的かつ明確に

生成AIにキャラクターを与えるとき、既存の有名キャラクターや有名人の名前を挙げたとしても、長いやり取りではその優位性は薄れます [3] 。ゆえに、キャラクターの名前を挙げるのではなく、具体的な口調や性格、役割をプロンプトに明記する方が良いでしょう。

2. 同じチャットを長々と引っ張らない

長期の対話で初期のキャラクター設定が弱まる可能性があったり [3] 、長いチャットが安全性の欠如や品質の不安定化を招いたりする可能性があるので [2] 、チャットが長くなったら要約→新規チャットへの移行を検討した方が良いでしょう。

3. 正確さが最優先の作業では、あえてキャラ付けを弱める

キャラクターを維持しようとするほどLLMのタスク性能が犠牲になる可能性がある(特にキャラクターが維持されている会話の序盤)[2] ことを考慮すると、調剤薬局で生成AIを活用する場合は、用途によってはあえてキャラクター設定をしない方が良い可能性もあります。

例えば、堅苦しい法令関係の文章(点数のことなど)の解釈や、同種・同効薬の比較表の作成といった正確さが必要になるタスクにおいては、あえてキャラクターを設定しない使い方をするのが良いかもしれません。

4. ネガティブなキャラ付けやシチュエーションは、なるべく避ける

先ほどの記述と共通しますが、怒りっぽい人、敵対的なシチュエーション、モラルが低いキャラクター(欺瞞・悪意)を再現させたい場面ほど、LLMのキャラクター忠実度は低下する可能性が示唆されました [3] 。
代替手段として、回答をスクリプト化したり、可能なら第三者が回答をレビューしてから採用したりすると良いかもしれません。

5. キャラ付けが望ましい方向に働くとは限らない、という前提で運用する

キャラ付けは、口調や価値の判断のブレを生じさせ、それが正確さに影響を与える可能性も考えられます。特に正確さが重要なタスクにおいては「変化を起こす道具」という前提で活用し、用途を限定したり、短い会話に限定(長くなるなら要約して新しいチャットに移行)したりして、最後は出力を検証することを徹底しましょう。


今回のアドバイスのまとめ

NotebookLMで生成

参考文献

[1] Costa, D. B., Alves, F., & Vicente, R. (2025). Moral susceptibility and robustness under persona role-play in large language models. arXiv.

[2] de Araujo, P. H. L., Hedderich, M. A., Modarressi, A., Schütze, H., & Roth, B. (2025). Persistent personas? Role-playing, instruction following, and safety in extended interactions. arXiv.

[3] Jun, Y., Choi, J., Park, J., & Lee, H. (2026). Fame fades, nature remains: Disentangling the character identity of role-playing agents. arXiv

コメントを残す

薬剤師のためのAIノートをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む