「AIと心理学」広告・PR担当者が知っておくべき5つの心理的影響
皆さんは、生成AIを使われたことはあるでしょうか。
「AIの時代が来た」と言われて久しいですが、ここ数年で私たちの生活や仕事におけるAIの存在感は急速に高まりました。広告やPRの現場でも、AIを活用したコピー生成、画像制作、顧客対応チャットボットなど、かつては目新しかった技術が今や日常的なツールになっています。
私自身はこれまで「インターネット上の情報が、人の意思決定にどう影響するか」という研究を続けてきました。特に健康情報のように、人の不安や期待に強く作用する情報をテーマにしてきたのですが、その中で感じるのは「情報は単なるツールではなく、人の心に影響を与え、行動を変える力を持つ」ということです。インターネットは自分で情報収集し、信念を強めるエコーチェンバーという現象に陥ることが指摘されて久しいですが、AIも同じでなのではないかと思っています。むしろAIは、人間と対話し、意思決定の場に入り込むことで、これまで以上に深く心理に影響を与え始めているという懸念があります。
そこで、今回は、広告・PR担当者の方にぜひ知っていただきたい、AIと関わることで生じる心理的な現象を5つご紹介します。これらを理解することで、AIを単なる便利なツールとして使うだけでなく、「人の心にどう響くのか」を意識した活用が可能になるはずです。
AI効果:AIだからこそ罪悪感が薄れる
AIやロボットといった「非人間的な存在」と接することで、人の道徳的判断や行動が変わる現象を「AI効果」1)と呼びます。研究によれば、AI相手だと罪悪感が弱まり、不道徳な行動をとりやすくなる傾向が示されています。
広告の現場を例に考えてみましょう。ある小売企業が無人レジを導入しました。顧客は人間の店員に比べ、AIや機械相手だと「小さなエラーや不正行為を報告しなくてもいいか」と思いやすくなるのです。広告や販促キャンペーンでも同様です。もしAIチャットボットを顧客対応に用いたとき、簡単に途中で終わることができてしまうので、完了率が低まるかもしれませんね(人間のチャットも同じかもしれませんが)。
つまり、AIを介した顧客体験は「便利さ」と同時に「道徳的な抑制の弱まり」をもたらす可能性があるのです。広告担当者はこの点を理解し、AIを通じた接点の設計に注意する必要があります。
AI罪悪感:AIを使うときのモヤモヤ
一方で、AIを使う人の側に生じる心理もあります。それが「AI罪悪感」1)です。教育やクリエイティブといった「人間らしさ」が求められる領域でAIを使うと、努力やオリジナリティが失われた感覚を抱き、罪悪感や不安につながるのです。
たとえば、広告代理店の若手コピーライターが、コンペ用のキャッチコピーを生成AIに頼ってみたとします。その案は完成度が高いものの、「自分の言葉ではない」という感覚がつきまとい、チームに提案するのをためらってしまう…。このようなモヤモヤは決して珍しいことではありません。
AI罪悪感は、利用者の自己効力感を下げたり、チーム内での評価不安を強めたりします。しかしながら、そのまま生成AIのコピーを使用するのは私もどうかと思いますが、それを土台にして自分らしいライティングをすることで、n=1のコピーから、数倍のパワーを持つコピーに昇華するかもしれません。広告・PRの現場では、AI活用の枠組みを定義し、活用方法のガイドラインづくりがよいでしょう。
AI誘発バイアス:AIを信じすぎる危うさ
AIとのやり取りは、人の認知や判断にバイアスを生み出します。これを「AI誘発バイアス」2)と呼びます。AIの出力を「正しいはず!」と過信しやすくなり、結果として誤った判断や偏見が補強されるのです。
広告の場面ではどうでしょうか。たとえば、生成AIが出した「ターゲット層のペルソナ像」に基づいて施策を立てたとします。AIが学習したデータが偏っていれば、実際の顧客像とは異なるのに、AIが提示したから!と過信して、それを前提に進めてしまう危険があります。
人は便利で効率的なツールほど疑わずに受け入れてしまう傾向があるのです。自身で読み込ませたデータをもとにしてもAIは異なる数字を吐き出すこともあります。広告担当者には、常にそのデータソースの確認、そしてAIの出力を「一つの参考意見」として、心にピン止めしながら利用する必要があります。
AIダブルスタンダード:一度の失敗が全体に波及
人間とAIでは、失敗の受け取られ方に違いがあります。ひとつのAIが不適切な行動をすると、その評価はAI全体に波及しやすいのです。これを「AIダブルスタンダード」1)と呼びます。
仮に、あるブランドがAIチャットボットを導入したとしましょう。そこで一度でも「不適切な回答」や「誤情報の提示」が起きれば、ユーザーは「このブランドのAIは危険だ」とだけでなく、「AIを使う企業は信用できない」とまで広げてしまうかもしれません。
人間なら「担当者が悪かった」で済むミスも、AIの場合は「やっぱりAIは信用できない」と見なされやすくなってしまうのです。広告・PRにAIを使うとき、このリスクを軽視することはできません。
AI脅威認知:AIが人間の価値を脅かす感覚
最後に紹介するのは「AI脅威認知」1)です。生成AIの進化は、人々に「人間の独自性や価値が奪われるのでは」という不安を生じさせます。
広告現場でも同じです。クライアントが「AIがコピーを書けるなら、人間のコピーライターは必要ないのでは?」と感じれば、チームの士気や信頼関係に影響を与えます。また、生活者が「この広告もAIが作ったのだろう」と感じると、ブランドへの共感や信頼が低下するかもしれません。
AIの進化を脅威と感じる感情は自然なものです。だからこそ、広告・PR担当者は「AIで何を置き換えるか」ではなく「AIでどんな価値を拡張できるか」という発想が必要です。
まとめ:AIはパートナー、人間は責任者
AIは便利で強力なツールですが、それと同時に私たちの心理に大きな影響を与えます。AI効果や罪悪感、誘発バイアス、ダブルスタンダード、脅威認知といった現象は、広告・PRの現場に確実に入り込みつつあります。
私はこれまで、インターネット情報が人の心理や行動にどう影響するかを研究してきました。その視点から見ても、AIは情報以上に人の心を揺さぶり、意思決定を左右します。だからこそ、AIを「単なる効率化の道具」としてではなく、人の心理への影響を踏まえて使うべき存在と考えています。
広告・PR担当者にとって大切なのは、AIに過度に期待せず、かといって恐れすぎることもなく、パートナーとして共に活用する姿勢です。最終的な判断をする責任者は人間です。それにはカラーがあります。パートナーが機械でも判断し、活用する人が豊かな発想と判断力をもっていれば、AIは広告の現場に新しい可能性を広げてくれるはずです。
1)Gabbiadini, A., Ognibene, D., Cristina, B., & Anna, M. (2024). The emotional impact of generative AI: negative emotions and perception of threat. Behaviour & Information Technology.
2)Chen, D., Liu, Y., Guo, Y., & Zhang, Y. (2024). The revolution of generative artificial intelligence in psychology: The interweaving of behavior, consciousness, and ethics. Acta psychologica.

