近日,甘肅省平?jīng)鍪泄簿志W(wǎng)安大隊偵破一起利用AI人工智能技術(shù)炮制虛假不實信息的案件。
說起來,這已不是ChatGPT第一次陷入假新聞風(fēng)波了。
問世伊始,便有人見識到其“一本正經(jīng)胡說八道”的高超本領(lǐng)。讓解釋高深物理理論,說得有鼻子有眼,結(jié)果所附論文一查均無出處;讓推薦相關(guān)領(lǐng)域?qū)W者,瞬間就有人選,可人物履歷卻是七拼八湊。
出于其“天賦”的內(nèi)容生成能力,ChatGPT似乎比從前的人工智能都更“聰明”,編出的內(nèi)容往往形真實假、雜糅難辨。
用ChatGPT編假新聞
警方出手
4月25日,平?jīng)鍪泄簿轴轻挤志志W(wǎng)安大隊對“今晨甘肅一火車撞上修路工人致9人死亡”的文章,初步判斷為信息虛假不實。
網(wǎng)安民警隨即開展工作,發(fā)現(xiàn)共計21個賬號均在同一時間段發(fā)布該文章,文章內(nèi)容地點除平?jīng)鍪嗅轻紖^(qū)外還涉及蘭州、隴南、定西、慶陽等地,文章點擊量已達1.5萬余次。
經(jīng)查,涉案賬號均為廣東深圳某自媒體公司所有,公司法人代表洪某弟有重大作案嫌疑。
5月5日,專案民警在廣東東莞嫌疑人住處對其使用的電腦進行取證。
經(jīng)審訊,犯罪嫌疑人洪某弟,在全網(wǎng)搜索近幾年社會熱點新聞,為規(guī)避平臺查重功能,洪某弟通過近期火爆的ChatGPT人工智能軟件將搜集到的新聞要素修改編輯后,上傳至其多個賬號進行非法獲利。
洪某弟利用現(xiàn)代科技手段編造虛假信息,并散布在互聯(lián)網(wǎng)上,被大量傳播瀏覽,其行為已涉嫌尋釁滋事罪。
目前,崆峒公安分局對犯罪嫌疑人洪某弟采取刑事強制措施,案件正在進一步偵辦之中。
這條假新聞也出自ChatGPT
此前,一條關(guān)于杭州3月1日取消限行的“新聞稿”,引發(fā)廣泛傳播。但經(jīng)記者調(diào)查發(fā)現(xiàn),這是一條不實新聞。
此前,一條關(guān)于杭州3月1日取消限行的“新聞稿”,引發(fā)廣泛傳播。但經(jīng)記者調(diào)查發(fā)現(xiàn),這是一條不實新聞。
據(jù)了解,2023年2月16日下午,杭州某小區(qū)業(yè)主群在討論ChatGPT。一位業(yè)主就開玩笑說嘗試用它寫篇杭州取消限行的新聞稿看看。
隨后該業(yè)主在群里直播了ChatGPT寫作過程,還把文章發(fā)群里。有不明所以的業(yè)主誤將其當(dāng)真并截圖轉(zhuǎn)發(fā),最后導(dǎo)致錯誤信息被傳播。
據(jù)了解,杭州相關(guān)政府部門均沒有發(fā)布此類政策,警方已介入調(diào)查,涉事業(yè)主也在群里公開道歉。
ChatGPT的潛在風(fēng)險
大型預(yù)訓(xùn)練人工智能語言模型ChatGPT在全球爆火。
此前,一家媒體與ChatGPT展開的“對話”中,就提到了“你會取代記者嗎”這一問。對此,ChatGPT回復(fù)如下——
華中科技大學(xué)法學(xué)院副教授滕銳表示:
ChatGPT是大量不同的數(shù)據(jù)集群訓(xùn)練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對其內(nèi)在的算法邏輯進行分解,所以不能確保在使用ChatGPT的過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復(fù)是錯誤或虛假信息,會具有極大的誤導(dǎo)性,有潛在法律風(fēng)險。”在他看來,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復(fù)中存在過度借鑒他人作品的情況,使用不當(dāng)就有可能侵犯他人的著作權(quán)。
值得注意的是,目前,為了避免學(xué)生過于依賴人工智能類工具,防止作弊,多國學(xué)校已經(jīng)發(fā)出禁令,禁止學(xué)生在學(xué)校內(nèi)使用類似于ChatGPT的人工智能工具完成學(xué)習(xí)任務(wù)和考試。
面對科技,多一些理性與冷靜
早有新聞可信度評估機構(gòu)提出,“ChatGPT可能成為互聯(lián)網(wǎng)有史以來最強大的傳播虛假信息的工具?!币灿幸恍嶒灡砻?,ChatGPT等個性化的實時聊天機器人在制造陰謀論方面甚至相比人類更具優(yōu)勢,它能夠修正糟糕的語法或錯誤的翻譯,并變換表達方式,使陰謀論顯得更具說服力和可信度。
一方面是超強的“造假能力”,而另一方面卻是相對缺失的“審核門檻”——在算法邏輯中,事實核查能力天然缺失,來源不明的所謂“新聞稿”隨時可能成為輿論爆點,大眾在將信將疑中“且傳且圍觀”。
亂象頻仍、真相缺失充分警示:面對這樣的超強生產(chǎn)能力,如若不加治理限制,任由人工智能隨性發(fā)展,必將嚴重威脅我們的信息生態(tài)。
科技是一把雙刃劍,人工智能也是如此。我們當(dāng)然不必視之為洪水猛獸,關(guān)鍵是在積極擁抱新技術(shù)、新事物的同時,注意規(guī)避潛在的問題和風(fēng)險。
人工智能浪潮滾滾而來,相關(guān)法律與倫理框架不僅不能落后,反而更要盡量趕在前面。
目前,世界各國皆在開展相關(guān)工作,以我國來說,今年1月《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》頒布實施;4月,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》。相信隨著法律法規(guī)的逐漸完善,相關(guān)權(quán)責(zé)會更加明晰,操作規(guī)范會更加具體。
與此同時,對待技術(shù)帶來的新問題,也要多多尋求“技術(shù)解”。比如,對于人工智能合成的文章進行識別、并打上不可抹掉的標簽。
ChatGPT在接受《時代》專訪時曾回答:我還有很多局限,但人類應(yīng)準備好應(yīng)對AI。確實,當(dāng)為ChatGPT打開的新世界而激動萬分時,我們更應(yīng)該有一絲理性的冷靜。
構(gòu)建人工智能應(yīng)用的倫理和法律框架,讓其與技術(shù)研發(fā)齊頭并進,規(guī)定好人工智能締造者的義務(wù),充分提醒用戶保持警覺?!胺彩骂A(yù)則立”,盡快做好方方面面的準備工作,社會就能更好應(yīng)對“人工智能生產(chǎn)內(nèi)容新紀元”。