ChatGPT打開了人工智能的新大門,也打開了潘多拉的魔盒,一段時間以來,關(guān)于人工智能生成內(nèi)容以假亂真、數(shù)據(jù)泄露以及侵權(quán)的風(fēng)險被進(jìn)一步放大。5月9日,作為內(nèi)容平臺方的抖音開出了自己的藥方——貼“水印”,明確發(fā)布者應(yīng)對人工智能生成內(nèi)容進(jìn)行顯著標(biāo)識。而這份倡議也成為一個月前國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法》)更為落地的版本。
顯著標(biāo)識
【資料圖】
人工智能是一把雙刃劍,ChatGPT的出現(xiàn)與爆火,更強化了AIGC的這一屬性。對此,面向創(chuàng)作者、主播、用戶、商家、廣告主等平臺生態(tài)參與者,抖音發(fā)出了一份關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議。
抖音要求,在抖音應(yīng)用生成式人工智能技術(shù)時,發(fā)布者應(yīng)對人工智能生成內(nèi)容進(jìn)行顯著標(biāo)識,幫助其他用戶區(qū)分虛擬與現(xiàn)實,特別是易混淆場景。同時,發(fā)布者需對人工智能生成內(nèi)容產(chǎn)生的相應(yīng)后果負(fù)責(zé),無論內(nèi)容是如何生成的。
虛擬人也被囊括在內(nèi)。抖音提到,虛擬人需在平臺進(jìn)行注冊,虛擬人技術(shù)使用者需實名認(rèn)證。抖音表示,禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識產(chǎn)權(quán)等。同時,禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布違背科學(xué)常識、弄虛作假、造謠傳謠的內(nèi)容。
“各生成式人工智能技術(shù)的提供者,均應(yīng)對生成內(nèi)容進(jìn)行顯著標(biāo)識,以便公眾判斷。同時使用統(tǒng)一的人工智能生成內(nèi)容數(shù)據(jù)標(biāo)準(zhǔn)或元數(shù)據(jù)標(biāo)準(zhǔn),便于其他內(nèi)容平臺進(jìn)行識別。”倡議提到。
為配合倡議,當(dāng)天,抖音還發(fā)布了人工智能生成內(nèi)容標(biāo)識的水印與元數(shù)據(jù)規(guī)范。據(jù)悉,標(biāo)識元數(shù)據(jù)規(guī)范即通過規(guī)范人工智能生成內(nèi)容的元數(shù)據(jù)格式,在相關(guān)圖片和視頻元數(shù)據(jù)中寫入信息,達(dá)到行業(yè)通用識別的效果。
大約一個月以前,國家互聯(lián)網(wǎng)信息辦公室起草了《管理辦法》,明確表示,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,采取措施防止生成虛假信息。
值得一提的是,5月10日及為意見反饋的截止時間。如果《管理辦法》獲得通過,這也意味著中國將正式開啟對AIGC的專門監(jiān)管。
北京社科院研究員王鵬分析稱,比起此前的《管理辦法》,抖音的這份倡議更為落地,讓更多相關(guān)人員參與其中,尤其是針對平臺上的大量創(chuàng)作者和使用者,督促大家能夠遵守相關(guān)的規(guī)定,提前防范化解可能存在的風(fēng)險。
真假難辨
AIGC伴隨著風(fēng)險,幾乎已經(jīng)成了全球共識。5月的第一天,全球人工智能的“高光”聚焦在了號稱“人工智能教父”的杰弗里·辛頓身上。當(dāng)天,《紐約時報》率先曝出辛頓從谷歌離職。辛頓坦言,他之所以離開谷歌,就是為了完全自由地說出人工智能所帶來的危險。
蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克也曾表達(dá)過他對人工智能散布虛假信息的關(guān)切,“如果有人想騙你,利用人工智能技術(shù),欺騙就會變得簡單得多”。
鬧劇早有預(yù)演。此前,喬治華盛頓大學(xué)一名法學(xué)院教授就莫名成了“性騷擾者”,原因在于ChatGPT生成的一份“有性騷擾歷史的法學(xué)學(xué)者”名單中,這位教授就在其中。而在今年2月,一則關(guān)于“杭州市政府將于3月1日取消機動車尾號限行政策”的消息也在網(wǎng)絡(luò)瘋傳。但隨后杭州警方證實,該消息為ChatGPT寫的假新聞。
王鵬表示,生成式人工智能依托于大模型訓(xùn)練,在某些應(yīng)用領(lǐng)域中發(fā)揮了重要的作用,甚至在一些情況下能夠達(dá)到相對專業(yè)人員的水平,足以以假亂真。因此從傳播、社交及娛樂等角度出發(fā),尤其是在內(nèi)容平臺上,就容易產(chǎn)生一定的問題。
瑞萊智慧深耕于AI安全領(lǐng)域,針對生成式人工智能內(nèi)容的虛實難辨,瑞萊智慧聯(lián)合創(chuàng)始人蕭子豪以ChatGPT舉例稱,技術(shù)方面,有一些方法被提出,比如針對合成文本的鑒別、數(shù)字水印等,但還存在難點。
機器與人類撰寫的文本差異性特征較少,機器合成文本的結(jié)果無論從結(jié)構(gòu)和語義角度都能較好地遵循人類書寫的規(guī)則,同時一個真人說話的方式也可能是多變的、結(jié)構(gòu)有誤的,因此很難單純從文本本身就鑒別出是否由ChatGPT生成。另外,數(shù)字水印需要ChatGPT在生成內(nèi)容時即添加水印,需要考慮到技術(shù)實現(xiàn)問題。
“從這一點來說,生成式人工智能,無論是音頻、視頻還是與虛擬人、數(shù)字人技術(shù)的結(jié)合,都可能帶來一定的風(fēng)險,需要有關(guān)部門、平臺方加強監(jiān)管,讓生成式人工智能更好地服務(wù)人類社會的相關(guān)產(chǎn)業(yè),提質(zhì)降本增效。”王鵬稱。
監(jiān)管在追
眼下,監(jiān)管對生成式人工智能的關(guān)注已經(jīng)在全球范圍蔓延。幾天前,美國白宮剛剛重磅宣布首個AI監(jiān)管計劃,美國國家科學(xué)基金會計劃撥款1.4億美元,用于啟動7所新的國家人工智能研究院。
緊接著,美國總統(tǒng)拜登就出席了在白宮舉行的一個人工智能會議,會見包括谷歌、微軟和OpenAI在內(nèi)的頂級AI公司的首席執(zhí)行官。
會后,美國副總統(tǒng)哈里斯在一份聲明中表示,AI技術(shù)有可能改善生活,但也可能會帶來安全、隱私和公民權(quán)利方面的擔(dān)憂。她告訴這些科技公司的高管,他們有責(zé)任確保其AI產(chǎn)品的安全,政府對AI方面的立法持開放態(tài)度。
英國競爭與市場管理局也確認(rèn),該部門正在對人工智能市場展開評審,其中也包括大語言模型、生成式人工智能在內(nèi)的基礎(chǔ)模型。而在上個月,歐洲議會成員也就《人工智能法案》達(dá)成提案,對AI模型提出更嚴(yán)格監(jiān)管要求。
天使投資人、知名互聯(lián)網(wǎng)專家郭濤認(rèn)為,當(dāng)前,AIGC產(chǎn)業(yè)監(jiān)管方面存在相關(guān)法律法規(guī)與標(biāo)準(zhǔn)體系不健全、缺乏多部門協(xié)同的自上而下的監(jiān)管體系、監(jiān)管技術(shù)手段落后等突出問題,政府有關(guān)部門需要盡快建立健全AIGC研發(fā)與應(yīng)用相關(guān)法律法規(guī)和標(biāo)準(zhǔn)體系,建立或完善倫理審查制度和監(jiān)管體系,加強對科技企業(yè)、應(yīng)用場景、使用者的監(jiān)管,搭建多方參與協(xié)同治理平臺,推動AIGC產(chǎn)業(yè)健康可持續(xù)發(fā)展。
“生成式人工智能的監(jiān)管也存在一些難點問題,比如平臺方如何進(jìn)行責(zé)任界定,內(nèi)容如何確定到底出自真實的人類還是人工智能,以及取證難等?!辈贿^王鵬補充稱,監(jiān)管和創(chuàng)新技術(shù)、創(chuàng)新模式之間永遠(yuǎn)都是一個跟和被跟的關(guān)系,一定是先有技術(shù),然后產(chǎn)生風(fēng)險,再去規(guī)范。有了監(jiān)管,有了倡議,也就能更有利于行業(yè)的發(fā)展。
最近更新