ChatGPT文風 原產(chǎn)地肯尼亞
ChatGPT文風奇怪的風原原因(俗稱AI味兒很濃)找到了!
肯尼亞作家:都是產(chǎn)地跟我們學(xué)的。
就在最近,肯尼一位肯尼亞作家的風原“控訴貼”登上Hacker News熱榜——
我是肯尼亞人。不是產(chǎn)地我的寫作風格和ChatGPT一樣,而是肯尼ChatGPT寫作風格和我一樣。
一點進去才知道,風原原來這位朋友連續(xù)精心撰寫的產(chǎn)地好幾篇文章都被退稿了,而且理由還都是肯尼“太像ChatGPT”。
emmm……一想到自己從小接受的風原教育都是“文章必須像一座完美的大廈”、“你必須展現(xiàn)豐富的產(chǎn)地詞匯量”,而現(xiàn)在卻被誤認為出自AI,肯尼這位朋友實在忍不住發(fā)出怒吼:
對于那些熱衷于偵查數(shù)字虛假性的風原偵探們,我想說:朋友,產(chǎn)地歡迎來到肯尼亞教室、肯尼會議室或公司內(nèi)部Teams聊天室里一個典型的星期二。你們所認為的機器指紋,實際上卻是我們教育的化石記錄。
而且很早就有消息指出,為了節(jié)省人力成本,很多AI模型廠商會把RLHF這類工作交給非洲人,所以模型的很多用語習(xí)慣也會偏向非洲那邊。
所以我們有理由懷疑,難道ChatGPT真是從肯尼亞“偷師”寫作技巧的?
咱這就火速圍觀一下——
“ChatGPT無意中在模仿我們”
事情是這樣的。
來自肯尼亞的Marcus Olang’(以下簡稱小馬)最近發(fā)文控訴,從年初收到第一條回復(fù)開始,他就陷入了需要“自證不是AI”的困境中。當時甲方給的回復(fù)是:
你寫的挺好,邏輯也扎實,就是……能不能用更“像人”的方式重寫一下?現(xiàn)在這個感覺,有點太像ChatGPT寫的了。
而且不止是他,他身邊的很多作家朋友也都收到了類似反饋。
而在仔細對比了自己和ChatGPT所寫內(nèi)容之后,小馬最終無奈發(fā)現(xiàn)——別說,你還真別說,咱們的文風確實很像ChatGPT。
從某種意義上說,指控者并非完全錯誤。我的寫作風格確實與大語言模型的輸出結(jié)果有幾分相似。
我們都傾向于使用結(jié)構(gòu)嚴謹、平衡的句子。我們都喜歡使用過渡詞,以確保邏輯流暢。我們都會偶爾使用(如今看來似乎成了罪證)連字符、分號或破折號來連接相關(guān)的想法,使其比簡單的句號更顯優(yōu)雅。
不過在小馬看來:
諷刺之處在于,這種諷刺或許會讓我們的祖先會心一笑。
他表示,不是自己寫得像ChatGPT,而是ChatGPT無意中在模仿他們——模仿他們這一代,以及過去幾代在全球南方,尤其是在像肯尼亞這樣的地方,經(jīng)過嚴苛教育體系“鍛造”出來的人。
從小到大,小馬接受的寫作指導(dǎo)都是講求規(guī)范、講求精心遣詞造句(是誰DNA又動了?)。
我們從小被教導(dǎo),文章必須像一座完美的大廈。引言是地基,主體是承重墻,結(jié)論是封頂,必須堅固、對稱、無懈可擊。我們要用“首先、其次、最后”來構(gòu)建邏輯,要用“此外、然而、因此”來精確轉(zhuǎn)折,要用“光輝燦爛”、“精疲力竭”這樣的“好詞”來展現(xiàn)詞匯量。
這種寫作,是我們的敲門磚,是我們在KCPE(小學(xué)畢業(yè)考試)決定命運的四十分鐘里必須掌握的生存技能,是我們向上攀爬的階梯。它嚴謹、清晰、富有說服力,但也因此,在今天某些人的耳朵里,它聽起來“缺乏人性的溫度”。
而這一套恰巧也被AI學(xué)去了。
諷刺來了,AI大模型(比如ChatGPT)正是從海量的書籍、論文、報告中學(xué)習(xí)寫作的。而這些文本庫中,充滿了歷史沉淀下來的、經(jīng)典的、正式的書面語——也就是我們被訓(xùn)練去模仿的那種文體。所以,當AI為了顯得“權(quán)威”和“可信”而輸出時,它的文風自然就與我所受的教育產(chǎn)生了詭異的“孿生”效應(yīng)。
所以,如今面對“文風像AI”的指責,小馬憤而吐槽:
這臺機器為了顯得權(quán)威,最終聽起來卻像個英語作文得了“A”的肯尼亞小學(xué)畢業(yè)考試(KCPE)畢業(yè)生。它無意中復(fù)制了大英帝國的語言幽靈。
而且他還提到,現(xiàn)存的一些AI檢測器往往更傾向于將流暢、邏輯嚴密、句式規(guī)整的文本標記為AI生成,而這恰恰是許多非英語母語者(尤其接受過嚴格正式寫作訓(xùn)練的人)的寫作特點,所以他們也更容易被誤判。
總之,小馬用自己的親身經(jīng)歷告訴大家——
由于歷史原因,一些非英語母語者的寫作,本就是現(xiàn)有AI模型的“教材”,而現(xiàn)在他們卻成了AI普及后的“受害者”。
這一說法也紛紛獲得了網(wǎng)友們的認同:
不過,令人啼笑皆非的是,小馬的這篇感情飽滿、“活人感”很強的文章,竟然還是被Pangram網(wǎng)站判定為100%由AI生成。
啊這……小馬不語,小馬只是一味生氣吐血(doge)。
因非洲人做RLHF,ChatGPT還愛用“delve”一詞
而基于類似理由,人們還發(fā)現(xiàn),ChatGPT似乎對“delve”(挖掘、深入研究)這個詞情有獨鐘。
《衛(wèi)報》曾有一篇文章指出,Jeremy Nguyen這位來自墨爾本斯威本科技大學(xué)的AI專家發(fā)現(xiàn)——
在PubMed這類專業(yè)學(xué)術(shù)網(wǎng)站上,“delve”的出現(xiàn)頻率在近幾年激增了10到100倍。
(PubMed主要收錄了80余國5200+生物醫(yī)學(xué)期刊,總量超3900萬條文獻。)
這暗示了,有大量研究人員可能在用ChatGPT輔助寫作,并將其偏好的詞匯帶入了正式學(xué)術(shù)文本。
這一現(xiàn)象還引來馬斯克和YC聯(lián)合創(chuàng)始人保羅·格雷厄姆的關(guān)注,后者發(fā)帖表示:
有人給我發(fā)了一封帶“delve”一詞的郵件,而這個詞表明文本大概率是AI生成的(暗示對方用AI寫項目書,還要找他投資hhh)。
并且就在格雷厄姆發(fā)帖之后,ChatGPT官號還用這個詞公開整活,繼而引來無數(shù)網(wǎng)友跟風。
不過,進一步的數(shù)據(jù)分析顯示,“delve”遠非孤例——
像“explore”、“tapestry”、“testament”和“leverage”等詞匯,在ChatGPT生成的文本中出現(xiàn)頻率也異常地高。
《衛(wèi)報》在文章中詳細揭開了這背后的謎底——
為了將大語言模型“馴化”成安全、有用、可控的聊天機器人,企業(yè)一般會雇傭大量人類測試員,讓他們與模型互動并提供反饋(如點贊/點踩,或撰寫理想的回復(fù))。
模型從這些海量的人類偏好數(shù)據(jù)中學(xué)習(xí),從而調(diào)整自己的行為,也即所謂的RLHF(基于人類反饋的強化學(xué)習(xí))。
而出于人力成本考量,RLHF這項勞動密集型工作被大量外包給了肯尼亞、尼日利亞等英語區(qū)的非洲國家。
對這些國家來說,“delve”這樣的詞正是他們?nèi)粘I钪凶匀弧⒁?guī)范的商務(wù)或?qū)W術(shù)英語,因此被高頻使用。
所以這些詞也就自然在ChatGPT中高頻出現(xiàn)了。
BTW,你還有哪些小技巧來鑒別某項內(nèi)容是出自AI之手嗎?
有網(wǎng)友先給大家打個樣了:
“幼獸般的嗚咽”、“瞳孔縮成針尖”……嗯,一般人屬實想不到了(doge)。
企業(yè)錄(www.qy6.com)-公司信息發(fā)布,網(wǎng)上買賣交易門戶



