現在 AI 大行其道,我們在學校教書的,也知道潮流(學生用 AI 寫作業跟程式)不可擋,只是一再告知「人腦也要放進工作流裡,還有,怎麼用 AI 要好好揭露」,只是收到的作業 95% 同學的「揭露」都是長這樣:「使用 AI 協助資料收集與校稿,再由作者進行最後檢查後定稿。」唉呀老師都被看扁了呢。
不過這年頭老師跟學生一樣大用特用 AI,思考研究 idea 時很刺激也很痛快,不過開始寫程式 debug 就滿煩的了,最後成果出來當然開心,但是要寫論文又超痛苦。有 AI 這種好東西誰不用?只是每個研究人員用的程度深淺不一,事實上也發生過 AI 亂掰、圖亂畫,甚至還登上了頂級的醫學雜誌,成為笑柄。
所以從學生到研究人員到期刊,都得面對「AI 使用如何揭露」的問題。
看到現在最樂意揭露 AI 使用的,大概就是那些靠北專業人士的酸民:「你看我隨便用 AI 做一做,也不會比你差。」堪稱光明磊落的行為,可以頒發「最誠實揭露 AI 使用獎」。
(繼續之前也來揭露一下,以下初稿是 AI 寫的)
2026 年 5 月初,在溫哥華舉行了世界研究誠信大會(World Conference on Research Integrity,簡稱 WCRI)。研究者、出版商、倫理學家與相關工作者聚在一起,想要討論出一套全球通用的標準:研究者用了 AI,到底要在什麼時候、用什麼方式揭露?主持人是 Bert Seghers,他是比利時Flemish commission for research integrity的主席,本行是數學家,他希望這份指引能在 2026 年底前發布。不過從會議現場的反應來看,這份指引要寫出來,並不容易。
會議室的螢幕上寫著一行字:「研究者應該揭露使用 AI 進行構想發想的情形,即使這些構想最終沒有出現在發表的稿件中。」然後叫大家選邊站。大部分人默默走向標示「強烈反對」的牌子下方集合,「強烈同意」那邊只有小貓兩三隻,現場爆出一陣尷尬的笑聲。這個場面,大概可以濃縮整個 AI 揭露議題目前的氛圍:大家都覺得該做點什麼,但對於要做到什麼程度,看法分歧。
傳統的共識依然可用:作者要為自己發表的內容負責,不管這些內容是怎麼做出來的;引用別人的東西要好好註明來源;研究方法要交代清楚。許多期刊目前都有自家的 AI 揭露規範,通常都會明訂「AI 不能列名作者」。但 Seghers 點出問題:「有些期刊的規範寫得很模糊,而且各家標準兜不起來,我們必須取得共識。」
目前研究者投稿時明顯「不太愛揭露使用 AI」。各種調查問研究者「你有沒有用 AI」,「有」的比例是 28%~76%,但實際在論文中揭露的比例,研究顯示遠低於這個數字。BMJ(英國醫學期刊)出版集團旗下的 49 種期刊,2024 年共收到超過 25,000 篇投稿,這些期刊都強制要求揭露 AI 使用情形,但實際附上揭露聲明的,只有 5.7%。原因是研究者可能不確定哪些事情需要揭露,或是擔心揭露 AI 使用後審稿人(尤其是惡名昭彰的 reviewer 2)會「另眼相看」,影響稿件被接受的機會。
AI 用到什麼程度才需要揭露?揭露到多細?很多科學家會用 AI 來潤飾文字,這算不算?投稿前拿 AI 幫忙抓一下拼字文法的錯誤,這種小事是否可以不必特別提?當然,對於不同領域狀況也不同,對於本來就是文字為主的文史哲領域,跟以數據資料的基礎科學領域,「AI 幫忙處理文字」所代表的意義絕對大不相同。
修改文字是一回事,如果是把 AI 用在「全自動代理式研究」,那當然就是完全不同層級的事了。
要揭露到什麼程度?強硬派認為,論文裡應完整寫出用了哪個模型、在幾月幾日幾點幾分用的、所有的提示詞(prompt)跟 AI 回應全部要附上。反對派則擔心,這種繁瑣冗長的揭露要求,加上「承認使用 AI 對審查不利」的疑慮,反而會讓更多人乾脆不揭露。也有人主張門檻訂得越高越好,要等到 AI 的貢獻已經達到作者等級才需要揭露,較小的貢獻將會變得太普遍,全面揭露反而失去意義。
另一個問題是:怎麼確保作者真的能對 AI 產出的內容「負起完整且知情的責任」?所謂「盡到查核責任」確認 AI 沒有亂講話,實務上其實越來越難了。AI 系統越來越自主、能力越來越強,它能做的事情可能已經超出作者自己能核對的範圍。甚至有人提案:「任何 AI 生成的內容,至少要有兩位共同作者來審查驗證。」這件事(當 AI 的校對員)想起來就無聊到爆,那我乾脆別用 AI,全部自己做算了…
也有學者對整個會議的努力抱著懷疑的態度。考量到技術變化速度這麼快、各學科的規範又南轅北轍,想要制定一套實務上通用的指引,可能根本辦不到。
雖然大家的意見南轅北轍,Seghers 跟共同主持人 Kari Weaver(安大略大學圖書館聯盟的人工智慧與機器學習計畫負責人)還是希望能訂出這份將會命名為「溫哥華標準」(Vancouver Standard)的 AI 揭露指引,既能具體提供實務可行的準則;又能涵蓋未來隨著 AI 發展出現的各種可能的情境。
這聽起來像個「不可能的任務」,光是大家在會議上吵來吵去的這段時間,AI 的樣貌可能又改變了不少。Seghers 自己也承認:「有人說這太天真了,但能把問題的輪廓描繪出來,本身就已經是一種成就。」
看起來還有得吵,而且不見得吵得出結果,大家走著瞧吧。
超中二物理宅雜記
話都給我說就好 其之556
圖:研究者對於「AI 使用揭露」,雖然人人同意是必要的,但揭露到哪裡,態度保留者居多。(ChatGPT 生成)
沒有留言:
張貼留言