2023-05-17 06:49:21
來源:北京日報
(資料圖片)
近日,歐洲議會通過了關于《AI法案》的談判授權草案,其中包含了有關面部識別、生物識別監控和其他AI應用使用的新規則,并提出嚴格監管ChatGPT等AI工具。無獨有偶,美國商務部上月已就相關措施正式公開征求意見,包括新AI模型在發布前是否應經過認證程序。
說起來,自AI誕生之日起人類就憂慮重重:作為頂尖智慧和技術的結晶,AI會不會帶來我們無法承受的風險,甚至走向失控?彼時,機器人之父圖靈告誡:盡管人類可以隨時拔掉機器人的充電器,但在這一物種面前,我們仍不得不保持謙卑。以歷史視角觀之,“機器人三定律”等似乎緩解了一些憂慮,但隨著相關技術發展及應用擴大,人工智能所面臨的法律與倫理沖突的復雜性遠非幾條簡單定律所能約束。尤其在過去這段時間里,ChatGPT讓人驚喜不已,但同時加劇了人類對其后風險的“原始畏懼”。
理性來看,種種現實擔憂絕非杞人憂天,不斷進階的AI催生著多重風險——由于無法核實數據真實性,生成式AI常會“一本正經”傳播虛假信息;數據挖掘像個“黑箱”,簡單快捷、“百無禁忌”,為學術不端大開方便之門,還可能泄露個人隱私和商業秘密……試想,當網上充斥著越來越多不知真假的圖片和視頻,當AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心用好這個工具?更關鍵的,人類從來都是在思考中迸發靈感、在試錯中革新向前,可當AI提供了前往正確答案的“直通車”,不僅可能掏空學習資源,更可能反噬創新。
技術是把雙刃劍,如何把握好技術創新與防范風險的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術尚未出現,監管者無法提前預測其影響并采取行動;而當它已經出現時,采取行動往往為時已晚或成本過高。相對樂觀的是,人類總能通過不斷適應新技術的發展、調整治理手段,一次次從這種困境中走出來。以汽車為例,在大規模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,甚至在汽車發明100多年后,我們還在為其安全“打補丁”——加裝安全氣囊。
誠如比爾·蓋茨所言,真正在全球范圍內暫停人工智能技術的開發,已經不太現實。但確保其被健康地使用,防止打開潘多拉魔盒,卻是必要的。一個月前,我國國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》,從大模型的數據來源要可靠、對AI生成的內容應履行告知義務等方面給生成式AI的發展套上了“籠頭”。顯然,為狂奔的AI安上“剎車”,歐美在行動,中國也在積極探索。換言之,除了跟上創新步伐、謀求技術突破,如何構建一套趨利避害的AI治理體系,同樣是一條不可忽視的競爭賽道。
有學者借“利維坦”“烏托邦”兩個詞匯,將“賽先生”的兩個發展趨向形容為“賽維坦”(對科技無所抗拒又無能為力)和“賽托邦”(科技最大程度造福社會)。如今重重挑戰在前,堅定馴服“賽維坦”的信心,保持實現“賽托邦”的理想,在遵從科技倫理、法治理念的基礎上,不斷完善人工智能相關法規,力求價值引領與技術“糾錯”并行、秩序保障與創新提升協同、權益維護與義務承擔對稱,就能最大程度爭取科技向善。
關鍵詞:
發布于
發布于
發布于
發布于