
近日,關于人工智能(AI)的新聞很多,有人聞之則喜,有人憂心忡忡。深圳“AI公務員”上崗,幫助政府大幅提高公共服務效率。某行業研究報告稱,隨著AI替代人工,全球銀行將在未來3年至5年內裁員多達20萬人。AI進步了,到底是會“添幫手”還是會“搶飯碗”?
從美國OpenAI公司發布ChatGPT掀起AI大模型浪潮,到中國DeepSeek風靡全球推動AI普惠,AI在創造新質生產力的同時,也帶來了“替代人類就業”“深度偽造詐騙”“信息生態污染”等系統性風險。在智能革命的十字路口強化科技向善法則,關乎人類文明存續。如何才能確保人工智能安全、可靠、可控?
全球合作,為AI劃定“不可為”底線。
已經有很多人在使用中發現了AI的不靠譜。當AI被賦予“追求效率最大化”目標時,可能選擇欺騙人類以完成任務。而AI能力越強,人類就越難分辨真偽。這就要求我們明確技術應用的負面清單,將“不作惡”嵌入AI的底層代碼。
劃定“不可為”底線,必須建立全球共識。AI具備無國界屬性,是全球化的典型代表。技術進步無界限,AI進化有賴于各國科技工作者的充分交流,也有賴于整個人類文明的大數據喂養;技術應用無界限,AI可以廣泛應用于醫療、教育、交通、金融等各領域,可以服務各國人民。這一屬性,要求人類超越地緣政治干擾,超越地域與文化的差異,共同制定AI普世倫理準則,推動構建公平、公正的人工智能國際治理體系。
主動安全,為AI消除“不可控”風險。
上醫治未病。對AI的價值觀塑造應前置到底層設計階段,而非事后修補。提高大模型內生安全能力,應將公平、透明、責任等倫理原則轉化為可量化的技術參數。在模型訓練和設計階段引入道德約束模塊,添加安全語料;在數據采集和處理階段強調源頭管控,嚴格進行數據篩選及數據安全標注;在模型上線前進行全面安全評估,確保各類風險項目中生成內容的合格率。
在模型部署應用后,日常巡檢尤為重要。當然,對AI安全來說,“防守”比“破壞”難度大。當生成式AI的迭代速度超過常用檢測工具時,單兵突進式解決方案必然失效。AI時代,發展與安全不是對立,而是相輔相成。用大模型治理大模型,正在成為AI治理的新范式。
社會協同,為AI構建“向善”大環境。
當詐騙犯能利用AI精準模仿親人聲音,當求職者因算法偏見喪失工作機會,當網絡信息被AI制作的海量虛假內容深度污染,技術風險就已滲透社會的毛細血管。應對AI帶來的不良沖擊,需要建立政府、企業、公眾共治的社會協同防御體系。政府要在鼓勵創新與管控風險之間保持平衡,企業要開發更多AI安全技術產品,公眾要提升批判性思維與科技倫理素養。
這也意味著,教育體系革新迫在眉睫。要在中小學引入“AI素養”教育,教導未成年人正確認識AI;要在大學開設“AI倫理”課程,培養技術人才的社會責任感;要在職業教育中設置“AI轉型”基金,資助因AI替代而失業的群體進行技能重塑。
AI技術不是萬能的,缺席AI時代是萬萬不能的。站在智能革命的臨界點上,AI進化方向應由人類的集體良知決定。引導AI向善,才能讓智能之火照亮人類文明的未來。(本文來源:經濟日報 作者:佘惠敏)