AIリテラシー

生成AIブームの影響もあり、現代はAIに関する情報が「氾濫している状態」にあるといってよく、正しい情報や真偽不明な情報が多数入り混じっています。そのため、AIを実際の業務で活用するためには、一人ひとりの「AIリテラシー」の習得が不可欠です。

AIリテラシーとは、「AIを正しく理解・活用・評価し、リスクを管理する能力」のことです。もう少し掘り下げると、「AIの仕組みと限界を『理解』し、目的に合うツールを選択して『活用』でき、出力を批判的に『評価』して、『安全面・倫理面に配慮』できる能力」といえるでしょう。

特に薬剤師のAIリテラシーを考える場合は、薬剤師としての専門性とAIとの接点を理解し、患者さんとのコミュニケーションやチーム医療の中で安全に活かせることが重要です。

「AI」と一言で言っても、人によって真っ先に思い浮かぶものは違うと思いますが、個人単位、小さな組織単位からでも薬剤師が気軽に活用できるのは「生成AI」と言っていいでしょう。

そのため、まずは生成AIに関連するAIリテラシーを確実に習得することを目指しましょう。

1. 生成AIの「限界」を理解する

いきなりですが、生成AIの「限界」については必ず理解しておく必要があります。
今後AIの技術は毎日のように進歩していますが、決して「完璧」ではありません。

  • ハルシネーション(ハルシネーションの詳細はこちらのページに記載しています)

    …誤った情報や存在しない情報を正確であるかのように出力してしまう現象です。基本的に生成AIがなんらかの結果を出力する時は、その情報が正確であるかどうかをモデル側が検証しているわけではないので、情報の内容は必ず使う側がチェックする必要があります。

    特に、医療の現場では「回答の根拠」と「情報の正確さ」が非常に大事です。患者さんやステークホルダーとの信頼関係をより良いものにするためにも、出力内容のチェックは怠らないようにしましょう。
  • 学習データへの依存

    …生成AIのモデル(GPT、Gemini、Claudeなど)がリリースされるまでには、モデルが膨大な量の「自然言語の知識」「膨大なデータ」などを学習することになりますが、その学習の過程でデータの方向性が偏ってしまった場合、出力にもバイアスが生じるリスクがあります。
    簡単にできる対策として、出力内容のチェックの過程で別のモデルにも同じ質問をしてみたり、複数のモデルの出力を同時に比較できるサービス(「天秤AI」「Felo」など)を利用するのも良いでしょう。

    また、特に指示をしない限りは「学習時点の情報」をもとに回答を生成するため、それ以後の情報や話題には正確に回答できない可能性があります。
    サービスによっては「Web検索」との併用ができるものもありますので、新しい情報を参照したいならばWeb検索機能を活用するのも良いですし、質問時に「追加の資料」として参照してほしい情報を提示するのも、ある程度有効です。
  • 会話の「記憶力」の限界

    …一つのチャットで繰り返し質問を続けていると、徐々に最初の方の内容を忘れてしまう可能性があります。いくらモデルの性能がアップデートされているとはいえ、「最近のモデルであれば性能がいいから大丈夫」と過信していると、忘れた頃にこの現象に出会う可能性があり、そしてその事実に気づかずに質問を続けてしまうとハルシネーションのリスクが増えることになります。

    内容が蓄積してきたら別の新しいチャットに移るなどして、生成AIの「記憶力」を保てるようにしましょう。

生成AIを「気軽に」使う場合は、インターネットに接続して使用することになります。チャット欄に入力した情報や添付したファイルおよび情報源などは、たとえ一時的であったとしてもインターネット上に残ることになるため、なんでもかんでも入力・アップロードしないように注意しなければなりません。

  • 個人情報・機密情報はアップロードしない

    これらの情報は、生成AIに提示した時点で「情報漏洩」とみなされます。そしてその事実が発覚した場合は、患者さんやステークホルダーとの信頼が失墜することになります。それに加え、本来なら質の高い医療サービスの提供に割くべき時間が情報漏洩の対応に割かれることとなり、さらに悪循環になるでしょう。

    ですから、生成AIを業務で活用したい場合は、きちんと組織単位でルールを決めて、確実に周知しておきましょう。
  • 必要なら「オプトアウト設定」をオフにする

    「オプトアウト(opt-out)設定」とは、ユーザーが自分の入力・やり取りを、モデルの再学習や改善目的に使われることを拒否できる設定のことです。生成AIを業務で使う際は、オプトアウト設定があるかどうか、どこで操作できるかを事前に把握しておくことが望ましいです。

    参考までに、「ChatGPT」「Gemini」「Claude(デフォルトでOFF)」「Copilot」は設定でOFFにすることが可能です。
3. 生成AIの「倫理」を理解する

生成AIを実用するにあたり、倫理面への配慮も必要です。特に薬剤師は「医療の担い手」ですから、生成AIが患者さんの治療の中断や拒否につながらないように注意しなければなりません。

  • 生成AIは「心」で理解しているわけではない

    あまりに人間らしい回答を出力してくれるので、まるで人間と会話しているかのような印象を受けてしまいます。それにより生成AIとのやりとりに依存してしまい、現実の人間関係に影響をきたしたり、回答を鵜呑みにして健康被害が出てしまったり、最悪のケースとして自ら命を絶ってしまった事例も報告されています。
    (実際の事例の詳細は、こちらのnoteマガジンに掲載しています)

    上記マガジンにも色々と記事を掲載していますが、生成AIへの依存(特定モデルへの依存)は、非常にリスクが高いのです。仮に特定のモデルに精神的に依存してしまっていた場合、モデルのアップデートによって回答の「癖」が変わってしまうことで、「心の拠り所」を失ったと考えてしまい、最悪の結果を招く恐れがあります。実際、「GPT-5」がリリースされた時は一時的に過去のモデルは選択できないようになっていたのですが、「GPT-4o」を愛用していた人たち(特に「人間的なやり取り」をしていた人たち)からは多くの反発の声が上がり、Redditでは「ChatGPTから個性がなくなった」「親友を失った」「親友を亡くした」という意見も散見されました。

    薬剤師は、大前提として生成AIの返答は「学習内容を踏まえたアルゴリズム」によるものと理解しておかなければなりません。もちろん、時々相談相手として生成AIを活用することは否定しませんが、医薬品と一緒で「用法・用量」が不適切だと、リスクのみが増加していくことになります。生成AIと人間とのつながりは、人間同士の繋がりより圧倒的に弱く、脆いものと知っておきましょう。そして、特に調剤薬局の薬剤師ならば「生成AIより先に、患者さんから様々なことを相談してもらえる薬剤師」を目指しましょう。
  • 「著作権」の問題

    言うまでもなく、生成AIが学習した情報の中には他人の著作物も含まれます。
    そのため、生成AIの出力をそのまま引用した場合、無意識に著作権を侵害してしまう可能性があります。

    可能な限り、出典を提示してもらう方が良いでしょう。少なくともWeb検索機能を併用して回答を出力してもらった場合は情報元が提示されていますので、出力の内容を確認する段階で、一緒に情報元の内容もチェックするようにしましょう。

    特に、「画像や動画、音声を生成して商用利用する場合」は注意が必要です。当然情報元が表示されることはありませんので、どのような学習データからメディアを出力したのか不明瞭です。そのため、最低限既存のキャラクターやクリエイターの名前をプロンプトに含めないようにし、「意図的に」似せるようなことは避けるようにしましょう。

生成AIがハルシネーションを起こしても、回答内容にバイアスが含まれていても、その情報を活用する場合は、最終的にユーザーが責任を負うことになります。生成AIは気軽に試すことができますが、責任を負うのはユーザー側(人間)であることを肝に銘じて、生成AIを活用するようにしましょう

コメントを残す

薬剤師のためのAIノートをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む