目前共有13篇帖子。
(轉載知乎)港大博士論文引用 AI 虛構文獻,通訊作者副院長引咎卸職,該事件對 AI 應用有哪些警示意義?
11樓 JosephHeinrich 2025-12-22 20:46

花生哥聊升學規劃:


我相信這種亂象還會在一定範圍相當程度上繼續存在,在不同地方持續上演。

因為不管我們的學習、教學還是科研的行為,以及與之相關的不同行為主體和利益相關方,其實都還沒有準備好迎接一個普及中的新工具,還沒有學會如何真正與AI共生,也還沒有形成對新工具比較科學且普遍的合理使用方法,更還沒有形成基於道德和公平基礎上比較完善的普適的使用規則和規範。

說白了:一頭亂麻的時期,有些人不管是因為壓力還是圖便利還是其他各種原因,想要渾水摸魚,那幾乎是難以避免的,就類似近期熱議的文博屆的南京博物館事件,當年的文物管理肯定是出現了某階段的混亂,才會出現那些至今看來都很不可思議的事件。我們不否定一些具體的人鋌而走險的偏好,但是最終可以讓這些人通過這種方式得利,並且這種得利的機率足夠高,因此足夠有誘惑力,足以讓其願意接受有可能帶來的風險,那肯定是整體社會特殊環境的問題,是相關的制度漏洞還是很多甚至還沒建立起來的問題。

回到我們教育界和學術界,實際上未來使用AI作為工具,需要學會跟AI共生已經是大勢所趨了,並且也是必須學會的技能,這應該已經成為數字化技能的一個很重要的組成部分。

然而,可以這麼說,目前這方面確實還是比較缺乏規範的,通常都是這裡一點那裡一點的瑣碎分散的規定,遠遠還沒有體系化,甚至還在不斷討論和爭論過程中。因為工具的發展,不管是速度還是規模遠遠超出了我們任何一個人原來的判斷,而對原有體系的衝擊強度和程度,也自然是令絕大多數人無法預見,因此難以防備的。這裡面最難心甘情願接受並理順的關係是:AI和人到底是怎樣的關係。

根據我們的傳統正確理解當然是:AI只能是人的工具,應當與人為主,即便是AI的推理能力日新月異,即便是單個人的記憶能力已經不太可能趕上AI的信息儲存能力,但是人還是應該牢牢佔住主體性的位置,讓AI服務於我們日常的任務,而不是反過來讓我們成為AI的附庸。但是需要做到這一點,其實並沒有我們想像的這麼容易的,因為我們會發現,你要做到這一點:

首先你要真的有能力,你的思維你的邏輯不能遠遠落後於AI,比如我們AI時代經常需要調動的元認知能力,你以為每個人都具備,或者每個人這方面都能表現得足夠優秀麼?事實並不是這樣的。比如我們的批判性思維能力,你覺得每個人都具備或者都表現得好麼?未必吧?每個人都表現得比AI好麼?也未必!

其次你要能夠頂住各種壓力或者誘惑(比如便利性等等),在利益面前還能守住原則和底線,這個真的也並不容易。你試想一下,當你需要快速完成一項工作,而自己能力又不夠,這時候有一個新的工具AI放在你面前,至少對方在很多方面都比你強的時候,你還能堅持「以我為主」並貫徹到底麼?因為人趨利避害的特性,你大機率是會直接上AI的,於是就會出現一些取巧的方式和結果。

最後你要了解自身能力和AI工具的能力邊界,知己知彼。這方面同樣並非我們每個人天然具有的能力和直覺,而是需要大量的實踐和自省去不斷在驗證修正中推進的。

以我為例,2025年也是我嚴格意義上的AI元年,我並不是一開始就了解AI的能力邊界的(這裡還只講當下版本,實際上版本還在不斷迭代中),是我習慣性調動了我的元認知能力,並經過大量的測試之後才發現了:

目前的AI,至少在通用大模型這一塊,它真的是存在很明顯的能力邊界的。最明顯的體現是兩個:一個是叫做信息污染導致的包括幻覺在內的東西,最典型的就是偽造數據,偽造參考文獻,這個對於學術來說是一個不容突破的底線,用不好絕對是會踩大坑的。不管你是發現了但由於各種原因抱有僥倖心理也好,還是並不知道這個問題,對這個問題認識不深刻最終盲信了它,你都會掉坑;另一個其實是我發現目前通用大模型的數據運算層面,數據處理層面表現整體並沒那麼好,經常容易出錯,所以但凡涉及這種數據處理和運算的,恐怕還是需要特別謹慎,這個與學術同樣是關係密切,盲從自然也會掉坑。

我之前會傾向於覺得是因為各種信息源的原因,還用訓練量限制等方面的原因,後來我想了想,這不對,這不能解釋為什麼這方面會頻繁出問題,至少它不是最根本原因,因為這些東西都只能說明是AI處理我們問題的方式方法出現了問題,但根源到底是什麼?

後來我想明白了(至少是到目前為止我個人的粗淺理解是這樣的),你完全可以把AI當成一個真實的人,一個你真實的下屬來理解呀,你給人家下指令,就相當於給一個下屬下指令,但它不是萬能的呀,這時候他其實就是你一個下屬接收到命令的表現,在它不是全知全能的情況下,它的目標只有一個:就是幫助你完成任務。

這時候,只要幫助你完成了任務,看起來像這麼回事就行!它只需要幫助你完成任務,看起來像這麼回事就行!(我重複一下這個表述)....最關鍵的是完成任務!

明白了麼?所以,如果它能力不夠怎麼辦?在它的能力範圍之外,為了完成任務,它會給你造一些東西,包括似是而非的東西,甚至完全虛假的東西。這個在工作場景中,最常見的不就是各種偽造數據偽造參考文獻之類的麼?想到這裡,一切豁然開朗。

這時候,如果是一個智慧的領導應該怎麼做?

需要不斷去詢問你這個下屬更多的細節,更多的底層邏輯的東西,保證信息準確性,保證底層邏輯沒問題,並且進行話題的必要延伸。一個是考驗它,另一個是給自己更多的決策依據。為此,你甚至有必要去不斷挑戰對方,直到達到你想要的效果為止。

我是怎麼發現這個問題的呢?

我是在使用的過程中發現了一種現象,你不同的指令,得出來的結果的準確性科學性合理性很可能完全不是一個層面的,比如有些看起來你覺得沒必要的指令,對質量的影響可能是決定性的。

比如我把同樣一個文檔扔給它:

第一個指令是:請給這篇文檔做下小結。結果會出一個東西。

第二個指令是:請全面並且認真理解以上文檔,並深刻分析其中的內容,最後根據以上信息作一個小結。結果出來的東西可能會嚇你一跳。

為什麼呢?

因為對方就是你的下屬,你第一個指令太模糊了,為了完成任務,它要麼選擇非常龐大工作量的模式來去思考並解決問題,要麼它選擇最經濟的模式去完成任務,解決問題。你要知道它跟人一樣,能省事的時候絕對想要更省事,於是它會傾向於選擇第二種完成任務的思路和方式,調用平台最經濟的算法,完成這個任務,能打發掉你就可以啦。

而第二個指令,你說得非常清晰,它就必須要按照你的要求來執行指令了,這時候很多東西就不能偷懶了,結果這個下屬交出來的東西當然質量就不同了。

所以以上第二種指令裡面的「全面並且認真理解」「深刻分析」這些字眼這些命令並不是廢話,你不能默認寫下這種指令沒有必要,就像你不能默認你的下屬對於你任何指令的理解都是到位的,不能默認你的下屬責任心都是杠杠的一樣,你要想得到一個高質量的任務交付,你就必須有這些東西。

所以,我們絕大多數人,其實還在學習跟 AI共生的過程中,都還在路上,只不過有些人走了一百步還在往前走,而有些人才剛開始走;有些人選擇走這條路徑,另一些人選擇走另一條路徑;有些人是在開闢道路,有些人是在學習跟隨罷了。

AI在論文當中的應用以及相關機制包括倫理的發展,也必然受限於各種主客觀條件的差異。

對我個人來說,我依然覺得任重道遠,也在各種掙扎中,並且我覺得這個過程幾乎不可避免。

我們可能會覺得:當下一些老人家還不能適應進入智能手機的時代,所以難以進入無現金社會的生活,怎麼會呢?因此我們覺得不可思議,覺得他們跟社會脫節了。

但我判斷,如果我們這代人沒辦法適應AI滲透到我們當下生活的方方面面,那相比於這些老人沒法進入移動智能手機時代來說,未來生活的挑戰和鴻溝,將會更大。

以上!

@知乎校園

我是花生哥,歡迎關注 @花生哥聊升學規劃

專註分享乾貨帶成長,助你打通升學與職場

12樓 JosephHeinrich 2025-12-22 20:47

咚咚:


不是。你們寫論文不用zotero的?

13樓 JosephHeinrich 2025-12-22 20:47

回復帖子

內容:
用戶名: 您目前是匿名發表
驗證碼:
 
 
©2010-2026 Arslanbar [手機版] [桌面版]
除非另有聲明,本站採用創用CC姓名標示-相同方式分享 3.0 Unported許可協議進行許可。