開(kāi)欄的話(huà)
當(dāng)AI不再是科幻,而是我們工作中的“同事”、生活中的助手,甚至是傾訴的對(duì)象、創(chuàng)作的主角時(shí),一個(gè)根本性的問(wèn)題已然浮現(xiàn):我們?cè)撊绾闻c它共處?它會(huì)替代還是成就我們?合作中,信任的邊界在哪里?當(dāng)機(jī)器愈發(fā)像人,人的獨(dú)特價(jià)值又是什么?
這不僅關(guān)乎技術(shù),更關(guān)乎人性、倫理與未來(lái)?!癆I與人”欄目愿成為一方討論的園地,我們將記錄AI與人的碰撞、合作與博弈,也會(huì)探尋那些溫暖的故事、尖銳的矛盾與未解的難題。讓我們一起,在這場(chǎng)深刻的變革中認(rèn)識(shí)AI,重新認(rèn)識(shí)“我們”。
自2022年11月ChatGPT問(wèn)世以來(lái),全球已有近一成人口成為它的用戶(hù)。AI能幫助人們撰寫(xiě)文本、擬定標(biāo)題、潤(rùn)色簡(jiǎn)歷,確實(shí)在許多方面提升了效率。然而,語(yǔ)言學(xué)家警告,這種便利正讓人類(lèi)語(yǔ)言悄然走向“扁平化”。
西班牙《國(guó)家報(bào)》日前刊文指出,人類(lèi)正身處一個(gè)“ChatGPT化”的世界。研究證實(shí),人類(lèi)的語(yǔ)言被訓(xùn)練得越來(lái)越像機(jī)器,句子干凈利落,卻少了人類(lèi)特有的笨拙與真誠(chéng)。那些讓人類(lèi)顯得“有人味”的東西,正在被算法一點(diǎn)點(diǎn)抹去。
被算法統(tǒng)一的語(yǔ)言
ChatGPT、Gemini和Claude等模型帶來(lái)的交流方式,正使這種趨勢(shì)逐漸加深。有研究人員懷疑,ChatGPT的迅速普及正在讓人類(lèi)語(yǔ)言變得“過(guò)于正確”:句式短促、情感單薄、缺乏真誠(chéng)、沒(méi)有靈魂。
在以英語(yǔ)為通用語(yǔ)的學(xué)術(shù)會(huì)議上,“delve(深入探究)”這一動(dòng)詞已成為顯眼的“霓虹燈”,是重復(fù)使用AI輸出內(nèi)容的人的標(biāo)志。德國(guó)馬克斯·普朗克研究所研究員埃澤奎爾·洛佩茲指出,去年9月一項(xiàng)針對(duì)28萬(wàn)個(gè)學(xué)術(shù)視頻的研究發(fā)現(xiàn),ChatGPT發(fā)布18個(gè)月后,“delve”在學(xué)術(shù)演講、會(huì)議發(fā)言和1萬(wàn)篇經(jīng)AI編輯的論文中的使用頻率激增51%。
類(lèi)似的詞還有“intricate(復(fù)雜的)”“commendable(值得稱(chēng)贊的)”“meticulous(細(xì)致的)”。這些原本在英語(yǔ)語(yǔ)料庫(kù)中罕見(jiàn)的形容詞,如今頻繁出現(xiàn)在郵件、報(bào)告和演講稿中。
美國(guó)佛羅里達(dá)州立大學(xué)語(yǔ)言學(xué)家湯姆·朱澤克認(rèn)為,這是算法訓(xùn)練數(shù)據(jù)帶來(lái)的偏差。AI公司負(fù)責(zé)審核語(yǔ)言模型輸出的員工多來(lái)自尼日利亞和肯尼亞等地,這些詞匯在當(dāng)?shù)氐氖褂妙l率遠(yuǎn)高于歐美英語(yǔ)。于是,AI在無(wú)意中將區(qū)域性表達(dá)“全球化”了。
寫(xiě)作風(fēng)格同樣呈現(xiàn)出高度一致性。英國(guó)開(kāi)放大學(xué)應(yīng)用語(yǔ)言學(xué)教授菲利普·瑟吉恩特總結(jié)道,ChatGPT寫(xiě)作有一種獨(dú)特的節(jié)奏,得體但乏味,平滑卻空洞。他發(fā)現(xiàn),AI偏好在句中插入解釋性破折號(hào)、喜歡“三點(diǎn)并列”,并在句尾保持禮貌和克制。這種風(fēng)格在短時(shí)間內(nèi)滲透進(jìn)人們的語(yǔ)言,成為“理性”“專(zhuān)業(yè)”的代名詞,卻也讓表達(dá)越來(lái)越像機(jī)器人。
西班牙馬德里康普頓斯大學(xué)語(yǔ)言學(xué)家拉拉·阿隆索指出:“這些沒(méi)有錯(cuò)別字、卻也沒(méi)有靈魂的內(nèi)容,讓人失去回復(fù)的欲望,因?yàn)槟愀杏X(jué)不到‘活人感’?!?/p>
AI將思考“外包化”
語(yǔ)言變單調(diào)的同時(shí),思維也在趨同。AI基于大數(shù)據(jù)的共性生成文本,天然追求中間值與安全感,于是人們?cè)絹?lái)越少表達(dá)不確定、猶豫和叛逆的觀(guān)點(diǎn)。語(yǔ)言的棱角被打磨,思想的鋒芒也隨之消失。
有專(zhuān)家將這種現(xiàn)象視為ChatGPT的“語(yǔ)言催眠效應(yīng)”。無(wú)論答案對(duì)錯(cuò),AI都能篤定地回應(yīng),而人類(lèi)天生有確認(rèn)偏差,傾向于信任迎合自己預(yù)期的內(nèi)容。只要AI句子流暢,人們便傾向相信它。久而久之,人們也開(kāi)始模仿這種表達(dá)方式。
今年6月,美國(guó)麻省理工學(xué)院一項(xiàng)名為“ChatGPT上的大腦”的開(kāi)創(chuàng)性研究引起關(guān)注。研究首次通過(guò)直接觀(guān)測(cè)大腦活動(dòng)發(fā)現(xiàn),人類(lèi)在AI輔助下變得更懶惰、更缺乏批判性思維,也更容易接受“中間化”的表達(dá)?!八屗伎紡氐淄獍?,使我們都變得更像了?!毖芯孔髡邔?xiě)道。
實(shí)驗(yàn)顯示,使用AI撰寫(xiě)郵件或短文時(shí),大腦活動(dòng)顯著下降,尤其體現(xiàn)為與創(chuàng)造力相關(guān)的α波和與工作記憶相關(guān)的θ波連接。參與者幾乎沒(méi)有作為作者的參與感,甚至難以回憶自己寫(xiě)過(guò)的內(nèi)容。令人驚訝的是,當(dāng)問(wèn)及“什么讓你真正快樂(lè)”時(shí),AI組幾乎全部回答與事業(yè)成功相關(guān)。研究作者娜塔莉亞·科斯姆娜形容此為“萬(wàn)物皆平均”現(xiàn)象。這種“平均化技術(shù)”讓語(yǔ)言失去個(gè)性與情感。
盡管如此,大多數(shù)人仍不愿放棄ChatGPT帶來(lái)的便利,并習(xí)慣于“即用即拋”的寫(xiě)作與閱讀模式。
語(yǔ)言的標(biāo)準(zhǔn)或被重新定義
語(yǔ)言學(xué)家亞當(dāng)·阿萊克西奇在其新書(shū)《算法語(yǔ):社交媒體如何改變語(yǔ)言的未來(lái)》中指出,大多數(shù)人并沒(méi)有意識(shí)到聊天機(jī)器人對(duì)自己語(yǔ)言的影響,也分辨不出是否是AI創(chuàng)作的內(nèi)容。他認(rèn)為,隨著人類(lèi)語(yǔ)言與AI語(yǔ)言越來(lái)越難區(qū)分,大模型訓(xùn)練又不斷來(lái)源于受AI影響的人類(lèi)文本中,機(jī)器化、單調(diào)的語(yǔ)言將愈加普遍。
澳大利亞斯威本科技大學(xué)的一項(xiàng)寫(xiě)作實(shí)驗(yàn)要求志愿者撰寫(xiě)廣告文案。他們第一次平均寫(xiě)出33個(gè)詞,在觀(guān)看ChatGPT生成的版本后,再次撰寫(xiě)時(shí)平均字?jǐn)?shù)增至87個(gè),句式變得更冗長(zhǎng)、迂回,且內(nèi)容重復(fù)。研究者杰里米·阮表示:“我們并未要求他們模仿AI,但他們自然而然地就這樣寫(xiě)了。”
對(duì)數(shù)百萬(wàn)人來(lái)說(shuō),ChatGPT已經(jīng)成為日常工具。人們習(xí)慣了這種冗長(zhǎng)、重復(fù)卻近乎完美的表達(dá),將它視作“正?!钡膶?xiě)作標(biāo)準(zhǔn)。而當(dāng)“標(biāo)準(zhǔn)”被重新定義時(shí),真正的危險(xiǎn)并非原創(chuàng)性的喪失,而是我們逐漸忘記了什么才是獨(dú)特的、帶有溫度的文字。
在這股“ChatGPT化”的浪潮中,如何在高效與真誠(chéng)之間,保留那一點(diǎn)屬于人的獨(dú)特印記,是一個(gè)值得深入探討的議題。
(責(zé)任編輯:蔡文斌)