目前共有13篇帖子。
(轉載知乎)港大博士论文引用 AI 虚构文献,通讯作者副院长引咎卸职,该事件对 AI 应用有哪些警示意义?
11樓 JosephHeinrich 2025-12-22 20:46

花生哥聊升学规划:


我相信这种乱象还会在一定范围相当程度上继续存在,在不同地方持续上演。

因为不管我们的学习、教学还是科研的行为,以及与之相关的不同行为主体和利益相关方,其实都还没有准备好迎接一个普及中的新工具,还没有学会如何真正与AI共生,也还没有形成对新工具比较科学且普遍的合理使用方法,更还没有形成基于道德和公平基础上比较完善的普适的使用规则和规范。

说白了:一头乱麻的时期,有些人不管是因为压力还是图便利还是其他各种原因,想要浑水摸鱼,那几乎是难以避免的,就类似近期热议的文博届的南京博物馆事件,当年的文物管理肯定是出现了某阶段的混乱,才会出现那些至今看来都很不可思议的事件。我们不否定一些具体的人铤而走险的偏好,但是最终可以让这些人通过这种方式得利,并且这种得利的概率足够高,因此足够有诱惑力,足以让其愿意接受有可能带来的风险,那肯定是整体社会特殊环境的问题,是相关的制度漏洞还是很多甚至还没建立起来的问题。

回到我们教育界和学术界,实际上未来使用AI作为工具,需要学会跟AI共生已经是大势所趋了,并且也是必须学会的技能,这应该已经成为数字化技能的一个很重要的组成部分。

然而,可以这么说,目前这方面确实还是比较缺乏规范的,通常都是这里一点那里一点的琐碎分散的规定,远远还没有体系化,甚至还在不断讨论和争论过程中。因为工具的发展,不管是速度还是规模远远超出了我们任何一个人原来的判断,而对原有体系的冲击强度和程度,也自然是令绝大多数人无法预见,因此难以防备的。这里面最难心甘情愿接受并理顺的关系是:AI和人到底是怎样的关系。

根据我们的传统正确理解当然是:AI只能是人的工具,应当与人为主,即便是AI的推理能力日新月异,即便是单个人的记忆能力已经不太可能赶上AI的信息储存能力,但是人还是应该牢牢占住主体性的位置,让AI服务于我们日常的任务,而不是反过来让我们成为AI的附庸。但是需要做到这一点,其实并没有我们想象的这么容易的,因为我们会发现,你要做到这一点:

首先你要真的有能力,你的思维你的逻辑不能远远落后于AI,比如我们AI时代经常需要调动的元认知能力,你以为每个人都具备,或者每个人这方面都能表现得足够优秀么?事实并不是这样的。比如我们的批判性思维能力,你觉得每个人都具备或者都表现得好么?未必吧?每个人都表现得比AI好么?也未必!

其次你要能够顶住各种压力或者诱惑(比如便利性等等),在利益面前还能守住原则和底线,这个真的也并不容易。你试想一下,当你需要快速完成一项工作,而自己能力又不够,这时候有一个新的工具AI放在你面前,至少对方在很多方面都比你强的时候,你还能坚持“以我为主”并贯彻到底么?因为人趋利避害的特性,你大概率是会直接上AI的,于是就会出现一些取巧的方式和结果。

最后你要了解自身能力和AI工具的能力边界,知己知彼。这方面同样并非我们每个人天然具有的能力和直觉,而是需要大量的实践和自省去不断在验证修正中推进的。

以我为例,2025年也是我严格意义上的AI元年,我并不是一开始就了解AI的能力边界的(这里还只讲当下版本,实际上版本还在不断迭代中),是我习惯性调动了我的元认知能力,并经过大量的测试之后才发现了:

目前的AI,至少在通用大模型这一块,它真的是存在很明显的能力边界的。最明显的体现是两个:一个是叫做信息污染导致的包括幻觉在内的东西,最典型的就是伪造数据,伪造参考文献,这个对于学术来说是一个不容突破的底线,用不好绝对是会踩大坑的。不管你是发现了但由于各种原因抱有侥幸心理也好,还是并不知道这个问题,对这个问题认识不深刻最终盲信了它,你都会掉坑;另一个其实是我发现目前通用大模型的数据运算层面,数据处理层面表现整体并没那么好,经常容易出错,所以但凡涉及这种数据处理和运算的,恐怕还是需要特别谨慎,这个与学术同样是关系密切,盲从自然也会掉坑。

我之前会倾向于觉得是因为各种信息源的原因,还用训练量限制等方面的原因,后来我想了想,这不对,这不能解释为什么这方面会频繁出问题,至少它不是最根本原因,因为这些东西都只能说明是AI处理我们问题的方式方法出现了问题,但根源到底是什么?

后来我想明白了(至少是到目前为止我个人的粗浅理解是这样的),你完全可以把AI当成一个真实的人,一个你真实的下属来理解呀,你给人家下指令,就相当于给一个下属下指令,但它不是万能的呀,这时候他其实就是你一个下属接收到命令的表现,在它不是全知全能的情况下,它的目标只有一个:就是帮助你完成任务。

这时候,只要帮助你完成了任务,看起来像这么回事就行!它只需要帮助你完成任务,看起来像这么回事就行!(我重复一下这个表述)....最关键的是完成任务!

明白了么?所以,如果它能力不够怎么办?在它的能力范围之外,为了完成任务,它会给你造一些东西,包括似是而非的东西,甚至完全虚假的东西。这个在工作场景中,最常见的不就是各种伪造数据伪造参考文献之类的么?想到这里,一切豁然开朗。

这时候,如果是一个智慧的领导应该怎么做?

需要不断去询问你这个下属更多的细节,更多的底层逻辑的东西,保证信息准确性,保证底层逻辑没问题,并且进行话题的必要延伸。一个是考验它,另一个是给自己更多的决策依据。为此,你甚至有必要去不断挑战对方,直到达到你想要的效果为止。

我是怎么发现这个问题的呢?

我是在使用的过程中发现了一种现象,你不同的指令,得出来的结果的准确性科学性合理性很可能完全不是一个层面的,比如有些看起来你觉得没必要的指令,对质量的影响可能是决定性的。

比如我把同样一个文档扔给它:

第一个指令是:请给这篇文档做下小结。结果会出一个东西。

第二个指令是:请全面并且认真理解以上文档,并深刻分析其中的内容,最后根据以上信息作一个小结。结果出来的东西可能会吓你一跳。

为什么呢?

因为对方就是你的下属,你第一个指令太模糊了,为了完成任务,它要么选择非常庞大工作量的模式来去思考并解决问题,要么它选择最经济的模式去完成任务,解决问题。你要知道它跟人一样,能省事的时候绝对想要更省事,于是它会倾向于选择第二种完成任务的思路和方式,调用平台最经济的算法,完成这个任务,能打发掉你就可以啦。

而第二个指令,你说得非常清晰,它就必须要按照你的要求来执行指令了,这时候很多东西就不能偷懒了,结果这个下属交出来的东西当然质量就不同了。

所以以上第二种指令里面的“全面并且认真理解”“深刻分析”这些字眼这些命令并不是废话,你不能默认写下这种指令没有必要,就像你不能默认你的下属对于你任何指令的理解都是到位的,不能默认你的下属责任心都是杠杠的一样,你要想得到一个高质量的任务交付,你就必须有这些东西。

所以,我们绝大多数人,其实还在学习跟 AI共生的过程中,都还在路上,只不过有些人走了一百步还在往前走,而有些人才刚开始走;有些人选择走这条路径,另一些人选择走另一条路径;有些人是在开辟道路,有些人是在学习跟随罢了。

AI在论文当中的应用以及相关机制包括伦理的发展,也必然受限于各种主客观条件的差异。

对我个人来说,我依然觉得任重道远,也在各种挣扎中,并且我觉得这个过程几乎不可避免。

我们可能会觉得:当下一些老人家还不能适应进入智能手机的时代,所以难以进入无现金社会的生活,怎么会呢?因此我们觉得不可思议,觉得他们跟社会脱节了。

但我判断,如果我们这代人没办法适应AI渗透到我们当下生活的方方面面,那相比于这些老人没法进入移动智能手机时代来说,未来生活的挑战和鸿沟,将会更大。

以上!

@知乎校园

我是花生哥,欢迎关注 @花生哥聊升学规划

专注分享干货带成长,助你打通升学与职场

12樓 JosephHeinrich 2025-12-22 20:47

咚咚:


不是。你们写论文不用zotero的?

13樓 JosephHeinrich 2025-12-22 20:47

回復帖子

內容:
用戶名: 您目前是匿名發表
驗證碼:
 
 
©2010-2025 Arslanbar [手機版] [桌面版]
除非另有聲明,本站採用創用CC姓名標示-相同方式分享 3.0 Unported許可協議進行許可。