It’s happening: People are starting to talk like ChatGPT
令人不安的是,聊天機器人回答中過多出現的詞語在人類對話中出現得更多。
2025年8月20日美國東部時間上午6:30
(Chiqui Esteban/《華盛頓郵報》;Iuliia Morozova/iStock)
作者: Adam Aleksic
Adam Aleksic 是《 Algospeak:社交媒體如何改變語言的未來》一書的作者。
如果你使用 ChatGPT、Claude、Gemini 或其他人工智能聊天機器人,你很可能假設你們說的是同一種語言。你輸入英語,它輸出英語。很簡單,對吧?但這其實是個誤解:實際上,你們說的是不同的語言。
聊天機器人不像人類那樣處理文本,而是將你的提示轉換成一個嵌入——一組在“向量空間”中表示的數字,有點像地圖上的坐標。但是,正如地圖是其領土的平面表示一樣,這種嵌入也是語言的平面表示;必然會丟失一定程度的人類差異和語境。
接下來,聊天機器人會根據過去訓練的回答方式,逐字預測回復內容。這種預測會利用有偏差的訓練數據(它從中學習的特定文本)和有偏差的強化學習(它收到的反饋)。最終,你聽到的看似英語的話語,實際上是對真實人類語音的模擬。
令人不安的是,現在有數億人定期與聊天機器人互動,講英語的人開始像另一端的非人類交流者一樣說話。
例如,ChatGPT 使用“delve”一詞的頻率高于人們在書寫或說話時通常使用的英語頻率。佛羅里達州立大學的研究人員 Tom S. Juzek 和 Zina B. Ward 發現,這可能是由于人類反饋過程中的細微偏差和錯誤隨著時間的推移而累積造成的。負責檢查大型語言模型 (LLM) 輸出的人工智能公司員工通常是來自尼日利亞和肯尼亞等國家的低薪工人,在這些國家,“delve”的使用頻率高于美式英語或英式英語。
因此,輕微的詞匯過度表達可能在模型中得到了強化——有時甚至比工人自己的使用頻率還要高。由于工作時間緊迫和緊張的條件,檢查員在瀏覽樣本文本時可能忽略了“delve”的頻率,從而導致進一步的放大。(其他一些例子包括 “intricate,” “commendable” and “meticulous.”。)
如今,這種過度使用正在滲透到全球文化中。自2022年底ChatGPT推出以來的兩年里,隨著研究人員開始尋求人工智能的論文幫助,“delve”在學術出版領域的出現頻率增加了十倍。隨著科學家和作家們對這一現象的認識不斷加深,他們開始采取措施,讓自己“聽起來不那么像人工智能”。其實,我以前很喜歡用“delve”這個詞,但現在我盡量避免使用它了。
但大多數人可能并不知道聊天機器人對某些詞匯存在偏見。用戶認為 ChatGPT 是在用“正常”英語說話,因為這是該工具用戶界面的暗示。他們還認為,自己遇到的日常文本也是正常英語,即使這些文本也可能是人工智能生成的。隨著時間的推移,他們越來越容易將這種表述與現實混淆。
事實上, 《科學美國人》上個月發表的一項研究發現,人們在自發的口頭對話中開始更多地使用“delve”(深入)這個詞。這不再是人工智能的功勞了;我們開始內化它的偏見,并自我重復。我說“我們”,是因為即使是反對“delve”的人也難逃其咎。我們或許可以避免使用最著名的ChatGPT贈品,但如今太多詞匯的出現頻率異常,我們不可能完全避免。我們是否也應該停止使用聊天機器人過度使用的“inquiry”(詢問)或“surpass”(超越)?太多了,難以追蹤。
隨著人工智能文本、我們無法識別的人工智能文本以及真實人類語音之間的循環越來越快,我們無意中套用LLM詞匯的可能性只會越來越大。心理語言學普遍認為,一個單詞出現的頻率會影響它在人們心理詞典(即口語對話中可能使用的選項的“詞典”)中的可用性。本質上,我們看到一個單詞出現的頻率越高,我們就越能本能地去使用它。
我們大腦語言映射的演化是正常的,但現在我們正處于一個反饋循環中,我們的“地圖”正在與聊天機器人的“地圖”融合。兩者都與實際情況不同——人類說話方式千差萬別——但這種混淆使得我們更難判斷什么是真正的人類語言,什么是人工生成的語言。隨著這種區別變得越來越難以辨別,我們將不斷模糊現實的界限,并周期性地利用這種模糊來構建我們新的現實。隨著人工智能模型繼續接受自身輸出和受人工智能影響的人類寫作的訓練,LLM語言的普及只會愈演愈烈。
從語言學角度來看,這并沒有什么錯。“深入研究”(delve)這個詞對大腦的影響并不比它的同義詞更嚴重。但語言預示著更深刻的社會變革。還有許多其他更為隱蔽的誤解也被編碼進了LLM的體系中。種族偏見、性別偏見和政治偏見——所有這些偏見都可能像語言偏見一樣被灌輸到模型中,但這些偏見更難被準確衡量。我們需要記住,這些并非中立的工具:它們擁有潛移默化地重塑我們思維的力量。