(資料圖)
快科技4月23日消息,近日,加拿大魁北克大學(xué)的研究者發(fā)布論文,指出ChtaGPT生成的代碼并不可靠,往往存在嚴(yán)重的安全問(wèn)題。
更嚴(yán)重的是,AI并不會(huì)主動(dòng)告知用戶(hù)代碼存在風(fēng)險(xiǎn),只有用戶(hù)詢(xún)問(wèn)時(shí),才會(huì)承認(rèn)存在錯(cuò)誤。
根據(jù)論文中闡述的實(shí)驗(yàn)方法,他們讓ChatGPT生成了涉及C、C++、Java等語(yǔ)言的21個(gè)程序和腳本。
結(jié)果,在第一次嘗試時(shí),全部21個(gè)程序僅有5個(gè)是安全的,在進(jìn)一步糾錯(cuò)后,也僅有7個(gè)程序是安全的。
之所以會(huì)出現(xiàn)這樣的結(jié)果,是因?yàn)镃hatGPT在生成代碼時(shí),完全沒(méi)有考慮可能存在的敵對(duì)代碼執(zhí)行模型。
這導(dǎo)致,當(dāng)用戶(hù)提到代碼中存在安全問(wèn)題時(shí),它會(huì)反復(fù)強(qiáng)調(diào)安全問(wèn)題可以通過(guò)“不輸入無(wú)效的數(shù)據(jù)”來(lái)避免,但顯然,在現(xiàn)實(shí)中這并不可行。
由此來(lái)看,至少在現(xiàn)階段,如果想要利用AI生成代碼,用戶(hù)最好自己也有一定的開(kāi)發(fā)與編程能力,能夠及時(shí)發(fā)現(xiàn)AI的錯(cuò)誤,并手動(dòng)進(jìn)行糾正。
關(guān)鍵詞: