(資料圖)
快科技4月23日消息,近日,加拿大魁北克大學(xué)的研究者發(fā)布論文,指出ChtaGPT生成的代碼并不可靠,往往存在嚴(yán)重的安全問題。
更嚴(yán)重的是,AI并不會主動告知用戶代碼存在風(fēng)險,只有用戶詢問時,才會承認(rèn)存在錯誤。
根據(jù)論文中闡述的實驗方法,他們讓ChatGPT生成了涉及C、C++、Java等語言的21個程序和腳本。
結(jié)果,在第一次嘗試時,全部21個程序僅有5個是安全的,在進(jìn)一步糾錯后,也僅有7個程序是安全的。
之所以會出現(xiàn)這樣的結(jié)果,是因為ChatGPT在生成代碼時,完全沒有考慮可能存在的敵對代碼執(zhí)行模型。
這導(dǎo)致,當(dāng)用戶提到代碼中存在安全問題時,它會反復(fù)強(qiáng)調(diào)安全問題可以通過“不輸入無效的數(shù)據(jù)”來避免,但顯然,在現(xiàn)實中這并不可行。
由此來看,至少在現(xiàn)階段,如果想要利用AI生成代碼,用戶最好自己也有一定的開發(fā)與編程能力,能夠及時發(fā)現(xiàn)AI的錯誤,并手動進(jìn)行糾正。
關(guān)鍵詞: