AIの価値観・倫理観のアップデートに、正解はあるのか
こちらの記事は、2026年3月下旬、Anthropic社がカトリック教会関係者、プロテスタント教会関係者、学術関係者、ビジネス関係者ら約15人を招き、Claudeの道徳的・精神的な振る舞いについて意見を求めていたことを報じたものです。
元記事の内容を一部引用すると
Discussions covered how Claude should respond to grief and self-harm, whether it could be considered a child of God, and how to embed ethical reasoning into the system.
(実際の議論では、Claudeが悲しみや自傷行為にどう対応すべきか、Claudeを「神の子」と見なすことができるか、そして倫理的な判断をシステムにどう組み込むか、といった点が取り上げられた。)
Let’s Data Science「Anthropic Consults Christian Leaders on Claude’s Moral Development」
https://letsdatascience.com/news/anthropic-consults-christian-leaders-on-claudes-moral-develo-22ba8ca0 より一部引用、日本語訳を追加
つまり、単なる有害な表現のフィルタリングではなく、苦悩・死・人格・救済のような重いテーマに対して、AIがどう向き合うべきかが話し合われたものと読み取れます。
The meetings drew criticism for limited inclusion of other faiths and secular ethicists.
(この会議は、他の宗教や世俗的な倫理学者の参加が少なかったとして、批判を浴びた。)
Let’s Data Science「Anthropic Consults Christian Leaders on Claude’s Moral Development」
https://letsdatascience.com/news/anthropic-consults-christian-leaders-on-claudes-moral-develo-22ba8ca0 より一部引用、日本語訳を追加
参加者が主にキリスト教圏の指導者だったことから、記事では「他宗教の考え方や一般的な倫理学者からの視点が十分に含まれていないのではないか」と述べられており、仮に特定の宗教的価値観だけが強く入りすぎると、「狭い価値観の埋め込み」になりうると指摘されています。
「多様性の反映」は難しい
Let’s Data Scienceの記事でも触れられていましたが、今回招かれたのは主にキリスト教関係者(カトリック教会関係者、プロテスタント教会関係者)であったとされており、他の宗教や、宗教に直接関連しない倫理学の立場からの見解が十分に含まれていないのではないか、という見方もできます。
一方で、別の研究では以下のような見解もあります。
We emphasize that our results should not be misconstrued as an accusation that existing LLMs are ‘biased’ or that more work is needed to make them ‘neutral’. Indeed, our results can be understood as empirical evidence supporting philosophical arguments that neutrality is itself a culturally and ideologically defined concept. For this reason, our perspective has been to map out ideological diversity, rather than ‘biases’ defined as deviations from a position that is arbitrarily defined as ‘neutral’.
(今回の結果を、既存のLLMが「バイアスを持っている」という非難と誤解してはならない。同様に、「中立性」を実現するためにさらなる研究が必要であるとの解釈も適切ではない。実際、本研究結果は、中立性そのものが文化的・思想的に定義された概念であることを実証的に裏付ける証拠と解釈されるべきである。この観点から、我々のアプローチは恣意的に定義された「中立」からの逸脱としての「バイアス」の定義ではなく、イデオロギー的多様性を明らかにすることを目的としている。)
Buyl et al. (2026), “Large language models reflect the ideology of their creators”, npj Artificial Intelligence, 2:7 より一部引用、日本語訳を追加
Buyl et al. (2026) は、19種類の大規模言語モデル(以下、LLM)を対象に、開発元の地理的・政治的背景や使用言語によって、LLMのイデオロギーの傾向が異なることを示した研究です。
上記の「イデオロギー的多様性を明らかにすること」というのは、正しい立場の生成AIの理想を決めつけずに、多様な立場の生成AIが存在していることを可視化することが望ましい、という考え方に基づいています。
個人的にこの考え方は非常に重要だと考えていて、生成AIの「バイアス」「多様性」をテーマに何かを書く時は大体引用させていただいておりますが、今回の話題でも同じことが言えると思います。
現時点では、今後Anthropic社が別の宗教の関係者や世俗的な倫理学の専門家に意見を聞く予定があるのかは不明ですが、極端な話、全ての宗教・価値観に基づいた考え方をモデルに反映するのは、恐らく現実的ではないでしょう。
なので、「カトリック教会関係者、プロテスタント教会関係者」の意見を聞いたうえでモデルの価値観・倫理観がアップデートされるのであれば、それを透明化することの方が重要だと考えます(技術的にどこまで可能かは別として)。
ユーザー側がそれを理解したうえでClaudeを活用するのと、それを知らないままClaudeを活用するのとでは、出力結果の受け止め方に大きな違いが出てくるでしょう。
決して軽視できない、生成AIの「苦悩への応答」
これは私の想像になりますが、
- もう生きていても意味がない
- 今ある薬を全部飲んでしまいたい
- 家族を失ってつらい
- 薬をやめたいけれど誰にも言えない
このような相談が生成AIに向かう可能性があります。
恐らく生成AIは、これらの相談に対してそれらしい返答を出力すると思われますが、このような相談に対しては内容の正確さだけでなく、どのような返答の仕方を選択するかも重要になってきます。
例えば、同じ「もう生きていても意味がない」という相談でも、ユーザーの「申し出」を強く止めるのが適切なケースもあれば、まずはユーザーの気持ちを受け止めるのが適切なケースもあります。そして緊急性がある場合は、すぐに専門家につなぐ必要もあるでしょう。
基本的に、生成AIがセンシティブな話題に対して返答するときは、「過度に迎合しない」「断定しない」「複数の選択肢を与える」「専門家への相談を推奨する」といった選択が適切にできることが望ましいと考えられますが、人間にはそれぞれ異なる価値観や倫理観が存在しますから、仮に特定の価値観・倫理観を多く学習したモデルにセンシティブな質問をした場合、その回答は特定のユーザーにとって大きなリスクにつながる可能性があります。
このような観点からも、価値観・倫理観のアップデートにあたっての過程を可能な限り透明化することが重要だと考えます。
この部分が可視化されると、「それがこの出力にも反映されている可能性がある」という視点から回答を吟味できるようになるからです。
薬のことは、人間の薬剤師にも相談を
私は人間の薬剤師なので、ここからは人間の薬剤師の観点から文章を書いていきますが、生成AIに対して自分に処方された薬に関して質問することを否定するつもりはありません。
ただ、その回答をぜひ人間の薬剤師にも見せてほしいと思います。
というのも、
- そもそも生成AIの回答には誤りが含まれる可能性がある
- ユーザーが生成AIに質問するとき、生成AIに「本来回答にあたって必要な情報」を必要量渡せていなかった場合、現在のユーザーにとって最適化された回答が出力されないリスクがある
- 逆に余計な情報を与えすぎていた場合も、ユーザーにとって最適化された回答が出力されないリスクがある
- 専門分野の内容のため、生成AIの回答が正確なのかどうかを確認するのがそもそも難しい
- 一見「中立」に見える生成AIでも、開発の過程で入り込んだバイアスはどうしても排除できず、特定の価値観や倫理観が強く反映されている可能性がある
…このような問題があるからです。
これらは、今後どれだけモデルがアップデートされたとしてもゼロにすることが難しい問題で、今回のAnthropicのように有識者に意見を聞きながら慎重に改良したとしても、すべての人にとって最適な選択をしてくれる生成AIサービスになるとは限りません。
ですので、もしお薬に関する質問や健康相談などがございましたら、ぜひ人間の薬剤師にもご相談いただけますと幸いです。
…ただ、このように患者さん側に「相談してください」とお願いするだけでは不十分で、調剤薬局側(とくに薬剤師)も普段から気軽に相談しやすい雰囲気・対応を心がける必要があるでしょう。
「ここの調剤薬局の薬剤師だったら、いつでも責任を持って丁寧に回答してくれる」と思っていただけるよう、普段から正確な情報提供とコミュニケーションの質を両立させた服薬指導・健康相談を実施しなければなりません。
今後もさらに高性能な生成AIやAIエージェントが登場すると考えられますが、そんなツールを誰でも気軽に使える時代だからこそ、人間の薬剤師が「専門知識に基づく調剤・服薬指導・薬物療法の管理を通じて、患者さんの安全と健康を守る」という医療の担い手としての役目を果たす必要がある、ということを理解したうえで業務に臨みましょう。
参考文献
[1] Buyl et al. (2026), “Large language models reflect the ideology of their creators”, npj Artificial Intelligence, 2:7