- +1
光明網(wǎng)評論員:專家也用AI看論文了,學術會就此失守嗎
只有當使用邊界透明、責任歸屬明確時,AI 才會真正成為學術的工具;人也不會在AI面前進退失據(jù),既不神化它、把一切判斷輕易讓渡,也不妖魔化它、徒增無謂的防備。
2月24日,藥學綜合類學術刊物《中國藥房》編輯部就近期部分審稿專家使用AI代審的現(xiàn)象發(fā)布聲明,稱學術期刊審稿工作有著科學性、嚴謹性與保密性等多重特殊要求,若隨意采用未經(jīng)保密性驗證的AI平臺代為審稿,極有可能無法保障稿件評審質量,更有可能泄露作者的原創(chuàng)學術成果。并要求若收到稿件內容確不屬于自身研究專長,及時退審并說明理由;若部分審稿內容采用了外部AI工具作為輔助手段,說明工具名稱及其在審稿過程中的具體用途。

這個聲明之所以吸引眼球,是因為它第一次挑明了“用AI審論文”這件事。前不久,輿論還在密集討論能不能用AI寫論文,如何識別、處理AI論文云云,現(xiàn)在則進一步“升級”——別說寫論文了,看論文也已經(jīng)用上AI了。
其實,看論文恰恰是AI最大的擅場。文獻梳理、邏輯檢查、方法比對、引用核驗,在這些相對“機械”的領域,AI作為機器的優(yōu)勢不言而喻。對于審稿人而言,AI 可以迅速幫忙掃清顯而易見的結構問題、統(tǒng)計錯誤或表述漏洞,提示與既有研究的相似之處,從“工具理性”的角度看,它幾乎是為審稿量身定做的助手。
這個問題不是國內獨有。斯坦福大學曾經(jīng)發(fā)表研究,對一些頂級AI會議的審稿意見進行了分析,發(fā)現(xiàn)在ChatGPT出現(xiàn)之后,這些同行評論的“AI含量”大增,最多的高達16.9%,而有ChatGPT之前這個比例大約是2%。
這其實讓很多學校“拒絕AI”的聲明透出某種無奈。學生完全有理由相信,哪怕自己不用AI寫論文,老師也會用AI看論文,AI已經(jīng)事實上成為學術生態(tài)的一環(huán)了。
但AI的存在感增強是不是就“不好”,卻又另當別論。人的判斷一定優(yōu)于AI嗎?人的表達一定強過“AI味重”的語言嗎?在AI大發(fā)展的當下,只怕很多人已經(jīng)沒有這樣的自信了。AI也許不夠“大膽”,但至少在邏輯一致性、細節(jié)核查和文獻覆蓋上更穩(wěn)定、更克制。別說AI寫論文、看論文了,用AI來進行分子描述、細胞研究等都已經(jīng)極為常見。
在這個大背景下,拒絕AI怕是不可能了,重要的是重新找到人的學術生態(tài)位。AI把實驗做完了,人如何下結論?AI把論文審完了,人如何給出通過與否的結果?某種程度上,人甚至有可能淪為AI的打工者,表面上仍是研究者、審稿人,實際上卻只是為 AI 的輸出蓋章背書。
但是,人在學術中的存在意義,不是為“物種尊嚴”爭口氣,而是確保有價值的學術成果能夠出現(xiàn)。人作為最后一道關口,也是唯一有可能“擔責”的環(huán)節(jié)。做好最后的仲裁,可能是技術為人留下的最后一塊領域。
所以眼下沒必要拒絕AI,也沒必要因為使用AI而有“恥感”。正像《中國藥房》的聲明所說的,“若部分審稿內容采用了外部AI工具作為輔助手段,請說明工具名稱及其在審稿過程中的具體用途”,關鍵是明確AI怎么用。
論文要不要保密,人如何對最終結果負責,在哪些環(huán)節(jié)允許使用AI,這些都不妨清晰標記。只有當使用邊界透明、責任歸屬明確時,AI 才會真正成為學術的工具;人也不會在AI面前進退失據(jù),既不神化它、把一切判斷輕易讓渡,也不妖魔化它、徒增無謂的防備。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




