這類工作要被大語言模型取代?

隔壁老邢2024-02-19 07:40

春節(jié)前,哈佛的一篇文章帶來了思考。

美國哈佛大學網(wǎng)站上有一篇文章探討了ChatGPT對寫作工作的代替可能性。

文章內(nèi)容是圍繞哈佛大學的一位校聘作家和一位有名望的心理學教授之間的對話展開,主要講了一個基本的觀點:

類似ChatGPT這樣的人工智能大語言模型可能幫助人們更有效率地查找資料或者更有創(chuàng)意地完成檢索。但如果人們擔心其會取代人們?nèi)ネ瓿蓪懽?,這是多余的。因為其無法像人與人之間那樣對因果聯(lián)系有著深刻的直覺,更何況ChatGPT的回答常常經(jīng)不起邏輯推敲,違背常識。

寫作通常涉及表達情感、個人觀點以及捕捉人類復雜的生活狀態(tài)。這些方面深深植根于人類的意識之中,大語言模型要想令人信服地復制人類這些方面的能力是很有挑戰(zhàn)性的。

哈佛的這個心理學教授認為,對這項AI技術的恐懼是來自于人們對可能發(fā)生的最壞情況的假設,而忽視到了現(xiàn)實中很可能會出現(xiàn)的相應解決辦法。比如對于大語言模型的限制上,美國等國家的媒體機構或者出版商已經(jīng)明確要求記者和作家停止使用任何人工智能應用程序來直接撰寫內(nèi)容,很多高科技企業(yè)也已經(jīng)開發(fā)出了可以檢測文章是否由大語言模型撰寫的專門技術。

可以說,對于寫作這個技術而言,從2023年開始風靡全球的大語言模型似乎并不能在短時間內(nèi)代替人類,最多只是一個檢索工具或者搜索工具,類似WPS軟件一樣。

我們知道,各行各業(yè)中,文字工作的主要職能就是起草各類文書和文件,撰寫內(nèi)容,以及整理或者校對各類文章。這需要一個人的文筆好,有邏輯,能寫文章??蓜e小看了這些工作,有個網(wǎng)紅曾經(jīng)大膽叫囂:“文科專業(yè)幾乎沒有價值。”這其實是非常沒有禮貌和偏激的看法,一個優(yōu)秀的文字工作者所需要掌握的技術和判斷力,難度絕對不亞于機械工程師或者藥劑師。

那么,以上哈佛大學教授的觀點能否代表當前的文字工作者短期內(nèi)就不需要警惕或者思考大語言模型或者其他人工智能應用的威脅了呢?

反過來說,對于人工智能大語言模型來講,2024年的發(fā)展會否具備突破性的進展,逐步開始代替部分文字工作了呢?

何不先來聽聽ChatGPT怎么說

要想弄清楚這個問題,除了上述人類專家的意見,我還想到要問問人工智能本身是怎么看的。

我請海外的一個朋友代我使用ChatGPT嘗試解答一下上述這個問題。

我的問題很直接:“大語言模型(LLM)是否會取代寫作的工作?”

其回答是:“作為人工智能語言模型,我可以在生成文本和協(xié)助完成各種寫作任務方面提供幫助。不過,像ChatGPT這樣的人工智能模型不太可能完全取代寫作者。雖然人工智能可以幫助快速高效地生成內(nèi)容,但在許多形式的寫作中,人類的創(chuàng)造力、洞察力和主觀經(jīng)驗仍然很有價值。

人工智能可以成為作者的寶貴工具,提供建議,幫助研究,甚至生成內(nèi)容草稿。它可以節(jié)省時間并提供其他視角,但它缺乏人類的深度理解、情感和原創(chuàng)性,而這些都來自于生活經(jīng)驗。

寫作不僅僅是撰寫文字,還需要講故事、捕捉獨特的畫面,以及在情感層面上與讀者建立聯(lián)系。這些方面往往需要人類的直覺、同理心和創(chuàng)造力,而人工智能模型目前很難完全復制這些方面。

雖然人工智能可能有能力自動化地完成某些重復性或公式化的寫作任務,但在可預見的未來,人類可能將繼續(xù)在創(chuàng)造引人入勝、發(fā)人深省和細致入微的內(nèi)容創(chuàng)作方面發(fā)揮重要作用?!?/p>

其回答和上述哈佛大學教授的觀點驚人的一致,且給了我以下兩點啟示:

1)寫作如果從工作角度,是可以被區(qū)分成公式化寫作和創(chuàng)意性寫作兩個方面的。人工智能大語言模型往往可以使用大量文本數(shù)據(jù)訓練其深度學習的能力,使之可以理解語言文本的意思以及生成語言文本。

所以,那些更加偏向公式化的文字內(nèi)容(比如簡單機械的文書)是可以由其代替撰寫的。但撰寫完成后,還得通過人類進行審核,以免其中的錯誤。而那些更加具有創(chuàng)意性的內(nèi)容,則無論如何無法由其完成。最簡單的例子就是《繁花》電視劇的劇本如果由ChatGPT根據(jù)原作者的同名小說改編,是不可能成功的。讀者如果不信,可以找機會試試用大語言模型模仿李白或者杜甫的詩篇進行創(chuàng)作,結果一定會全部失去了靈氣、浪漫和情緒,變成雞肋。

2)對待這個問題,哈佛大學教授的觀點和ChatGPT自己的觀點非常一致,似乎可以提示我們,大語言模型基于海量數(shù)據(jù)訓練和深度學習所得出一些觀點可能是具備價值的。畢竟我們身邊不常有哈佛大學教授幫助我們理清思路和提供觀點,但使用大語言模型卻非常方便。這似乎再次表明大語言模型對于文字工作者的輔助性功能是實在的。

由此,我認為大語言模型雖然不能完全代替寫作,但的確會影響到一些更偏向公式化寫作的職位。

或能被大語言模型替代的文字工作

去年在美國有一則新聞吸引了很多人的注意。

一位長期從事為公司網(wǎng)站和產(chǎn)品進行文字描述的美國兼職人員被9家其提供服務的公司相繼裁撤,理由是這些文字描述比較機械性和公式化,可以使用ChatGPT代勞。

這個職員后來在接受外媒采訪時候稱,其中一家裁撤他服務的公司后來又回來找到他,希望他能夠重新工作,因為該公司對ChatGPT所制作的內(nèi)容并不滿意,但其他原來的公司都沒有再找他了。

受此影響,他不得不轉行,而且為此還受了一些心理影響,自己上網(wǎng)專門研究了最不可能被ChatGPT取代的工種,轉而從事起了貿(mào)易方面的工作,并正在接受空調維修員和管道工的技術培訓。這些工種據(jù)說都位列“安全名單”前幾名。

2023年初,高盛(Goldman Sachs)的一份分析報告指出,人工智能大語言模型的產(chǎn)生可能會嚴重擾亂勞動力市場,影響全球約3億個工作崗位。其中,從事公式化和機械性創(chuàng)作的行政和法律行業(yè)的白領崗位被認為是風險最大的。

閱讀到這里的時候,如果您正在考慮從事一些機械性的文字類的工作,或者您正在從事一些偏向公式化的文字類工作,那請您思考一下是否人工智能大語言模型的威脅近在眼前了呢?

有何辦法?

除了像美國這個職員那樣轉行以外,文字工作者是否有其他辦法來避免被取代呢?我查閱了一些著名大學文學教授的相關文章,總結出以下幾點供各位參考:

1. 總體而言很多專家認為,人工智能對寫作和文字工作者不是威脅而是工具。

2. 專注于發(fā)展我們的創(chuàng)意和邏輯能力。人工智能可以生成文本和內(nèi)容,但它無法復制人類寫作的創(chuàng)造力和原創(chuàng)性。

3. 深入了解目標讀者受眾。他們想讀什么樣的內(nèi)容?他們的痛點是什么?他們喜歡使用什么樣的語言?人工智能往往做不到這種聚焦性。

4. 努力成為所在領域的專家。對自己寫作主題了解越多,就越有能力撰寫內(nèi)容翔實、引人入勝的高質量內(nèi)容。比如,一位在銀行系統(tǒng)耕耘多年的一線人員,在轉崗行政文字工作時候,絕對能寫出更多銀行產(chǎn)品細節(jié)或者銀行戰(zhàn)略等。

5. 要學習如何使用人工智能的寫作工具來更好發(fā)揮自身的優(yōu)勢。擁抱大語言模型而不是排斥,因為新的自動化技術可以幫助人們自動地處理寫作過程中的繁瑣任務,從而騰出手來專注創(chuàng)意。

6. 人與人之間的交流永遠是無可取代的,培養(yǎng)與各種關聯(lián)人的互動和交流。聽取別人的意見和見解,甚至直接向文字的直接讀者進行推薦,讓人們認可自己的寫作內(nèi)容。

來源:財經(jīng)早餐 作者:隔壁老邢

版權與免責:以上作品(包括文、圖、音視頻)版權歸發(fā)布者【隔壁老邢】所有。本App為發(fā)布者提供信息發(fā)布平臺服務,不代表經(jīng)觀的觀點和構成投資等建議

熱新聞

電子刊物

點擊進入