在診間想一句話激怒醫師,現在最流行的是:

「可是 ChatGPT 不是這麼說的。」

第二名則是:

「你說得很好,跟 ChatGPT 一樣。」

剛好看到一篇 WSJ 的文章,談的是財務顧問的研究:當客戶去問 AI 做 second opinion,比去問另一位真人顧問,更容易讓專業人士感到被冒犯,也降低後續投入服務的動機。

WSJ 就是個以金融商業為主的媒體,當然是用財務顧問當例子。但其實只要是「專業判斷型工作」,狀況都非常類似。

因為這件事的本質,不是資訊來源,而是信任結構的改變。

病人帶著答案進診間

過去病人來,是帶著症狀與不確定。

現在很多人來,是帶著一整套已經查好的知識架構,甚至帶著某種預設答案,像在考試一樣。

我自己的朋友圈們,都適應得很快,畢竟「現在就是這樣。」

覺得無奈或苦笑之外,AI 時代其實還是有點好處的。尤其當你給的判斷跟 AI 差不多,也建議同樣的治療時,患者有時是連預算都準備好的,溝通起來很快。畢竟他進診間的時候,不是一張白紙。

這就跟他事前看過你的部落格,並且相信你的論述,而來求診,頗為類似。(當然那個 AI 可能也已經受你的部落格影響,如果你耕耘夠多夠久的話。)

當他更相信 GPT

但如果你的判斷,跟他之前與 ChatGPT 聊來的建議不同,而且你第一次解釋之後,他仍然更相信 GPT。

那就只能放生。

因為在幾分鐘的門診時間裡,要逆轉一個人已經形成的主觀認知,非常困難。

時代改變,或許,比起逆轉,接受更不適合的病人離開,是更有效的策略。