警惕人工智能淪為造謠機器

2023-05-10 07:43:47

來源:北京日報


【資料圖】

近日,甘肅平涼市公安局崆峒分局網安大隊偵破一起利用AI炮制虛假不實信息的案件。犯罪嫌疑人購買大量賬號,全網搜索近年來熱點新聞,再用ChatGPT加以編輯、規避平臺查重功能,進而成功發布獲利。目前,嫌疑人涉嫌尋釁滋事罪,已被采取刑事強制措施,相關案件正在進一步偵辦之中。

說起來,這已不是ChatGPT第一次陷入假新聞風波了。問世伊始,便有人見識到其“一本正經胡說八道”的高超本領。解釋高深物理理論,說得有鼻子有眼,結果附列論文一查均無出處;讓推薦相關領域學者,瞬間就有人選,人物履歷卻是七拼八湊。出于其“天賦”的內容生成能力,ChatGPT似乎比從前的人工智能都更“聰明”,編出的內容往往形真實假、雜糅難辨。上述案件更直接展現出這種強大的造假能力。僅僅一篇“火車撞上修路工人致9人死亡”的虛假文章,就被套在了平涼、蘭州、隴南、定西、慶陽等多地上,文章點擊量達1.5萬余次,造假成本之低與負面影響之大形成鮮明對比。

早有新聞可信度評估機構提出,“ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。”也有一些實驗表明,ChatGPT等個性化的實時聊天機器人在制造陰謀論方面甚至比人類更具優勢,它能夠修正糟糕的語法或錯誤的翻譯,并變換表達方式,使陰謀論顯得更具說服力和可信度。一方面是超強的“造假能力”,另一方面卻是相對缺失的“審核門檻”——在算法邏輯中,事實核查能力天然缺失,來源不明的所謂“新聞”隨時可能成為輿論爆點,大眾在將信將疑中“且傳且圍觀”。對這樣的造假循環,如若不加治理限制,任由人工智能隨性發展,必將嚴重威脅我們的信息生態。

科技是把雙刃劍,人工智能也是如此。我們當然不必視之為洪水猛獸,關鍵是在積極擁抱新技術、新事物的同時,注意規避潛在的問題和風險。人工智能浪潮滾滾而來,相關法律與倫理框架不僅不能落后,反而更要盡量趕在前面。目前,世界各國皆在開展相關工作,以我國來說,今年1月《互聯網信息服務深度合成管理規定》頒布實施;4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》。相信隨著法律法規的逐漸完善,相關權責會更加明晰,操作規范會更加具體。與此同時,對待技術帶來的新問題,也要多多尋求“技術解”。比如,對人工智能合成的文章進行識別并打上不可抹掉的標簽。

ChatGPT在接受《時代》“專訪”時曾回答:我還有很多局限,但人類應準備好應對AI。確實,當為ChatGPT打開的新世界而激動萬分時,我們更應該有一絲理性的冷靜。“凡事預則立”,構建人工智能應用的倫理和法律框架,讓其與技術研發齊頭并進,規定好人工智能締造者的義務,充分提醒用戶保持警覺。當方方面面的準備工作都力求扎實,我們方能更好應對這一“內容生產的新紀元”。

關鍵詞: