<fieldset id="8cgui"><samp id="8cgui"></samp></fieldset>
<table id="8cgui"></table>
<abbr id="8cgui"><th id="8cgui"></th></abbr>
  • <small id="8cgui"><input id="8cgui"></input></small>
  • 智能革命需強(qiáng)化科技向善法則

    2025-03-02 06:33 來(lái)源:經(jīng)濟(jì)日?qǐng)?bào)
    查看余下全文
    (責(zé)任編輯:王炬鵬)
    手機(jī)看中經(jīng)經(jīng)濟(jì)日?qǐng)?bào)微信中經(jīng)網(wǎng)微信
    當(dāng)前位置     首頁(yè) > 新聞 > 國(guó)內(nèi)時(shí)政更多新聞 > 正文
    中經(jīng)搜索

    智能革命需強(qiáng)化科技向善法則

    2025年03月02日 06:33   來(lái)源:經(jīng)濟(jì)日?qǐng)?bào)   

      近日,關(guān)于人工智能(AI)的新聞很多,有人聞之則喜,有人憂(yōu)心忡忡。深圳“AI公務(wù)員”上崗,幫助政府大幅提高公共服務(wù)效率。某行業(yè)研究報(bào)告稱(chēng),隨著AI替代人工,全球銀行將在未來(lái)3年至5年內(nèi)裁員多達(dá)20萬(wàn)人。AI進(jìn)步了,到底是會(huì)“添幫手”還是會(huì)“搶飯碗”?

      從美國(guó)OpenAI公司發(fā)布ChatGPT掀起AI大模型浪潮,到中國(guó)DeepSeek風(fēng)靡全球推動(dòng)AI普惠,AI在創(chuàng)造新質(zhì)生產(chǎn)力的同時(shí),也帶來(lái)了“替代人類(lèi)就業(yè)”“深度偽造詐騙”“信息生態(tài)污染”等系統(tǒng)性風(fēng)險(xiǎn)。在智能革命的十字路口強(qiáng)化科技向善法則,關(guān)乎人類(lèi)文明存續(xù)。如何才能確保人工智能安全、可靠、可控?

      全球合作,為AI劃定“不可為”底線。

      已經(jīng)有很多人在使用中發(fā)現(xiàn)了AI的不靠譜。當(dāng)AI被賦予“追求效率最大化”目標(biāo)時(shí),可能選擇欺騙人類(lèi)以完成任務(wù)。而AI能力越強(qiáng),人類(lèi)就越難分辨真?zhèn)巍_@就要求我們明確技術(shù)應(yīng)用的負(fù)面清單,將“不作惡”嵌入AI的底層代碼。

      劃定“不可為”底線,必須建立全球共識(shí)。AI具備無(wú)國(guó)界屬性,是全球化的典型代表。技術(shù)進(jìn)步無(wú)界限,AI進(jìn)化有賴(lài)于各國(guó)科技工作者的充分交流,也有賴(lài)于整個(gè)人類(lèi)文明的大數(shù)據(jù)喂養(yǎng);技術(shù)應(yīng)用無(wú)界限,AI可以廣泛應(yīng)用于醫(yī)療、教育、交通、金融等各領(lǐng)域,可以服務(wù)各國(guó)人民。這一屬性,要求人類(lèi)超越地緣政治干擾,超越地域與文化的差異,共同制定AI普世倫理準(zhǔn)則,推動(dòng)構(gòu)建公平、公正的人工智能?chē)?guó)際治理體系。

      主動(dòng)安全,為AI消除“不可控”風(fēng)險(xiǎn)。

      上醫(yī)治未病。對(duì)AI的價(jià)值觀塑造應(yīng)前置到底層設(shè)計(jì)階段,而非事后修補(bǔ)。提高大模型內(nèi)生安全能力,應(yīng)將公平、透明、責(zé)任等倫理原則轉(zhuǎn)化為可量化的技術(shù)參數(shù)。在模型訓(xùn)練和設(shè)計(jì)階段引入道德約束模塊,添加安全語(yǔ)料;在數(shù)據(jù)采集和處理階段強(qiáng)調(diào)源頭管控,嚴(yán)格進(jìn)行數(shù)據(jù)篩選及數(shù)據(jù)安全標(biāo)注;在模型上線前進(jìn)行全面安全評(píng)估,確保各類(lèi)風(fēng)險(xiǎn)項(xiàng)目中生成內(nèi)容的合格率。

      在模型部署應(yīng)用后,日常巡檢尤為重要。當(dāng)然,對(duì)AI安全來(lái)說(shuō),“防守”比“破壞”難度大。當(dāng)生成式AI的迭代速度超過(guò)常用檢測(cè)工具時(shí),單兵突進(jìn)式解決方案必然失效。AI時(shí)代,發(fā)展與安全不是對(duì)立,而是相輔相成。用大模型治理大模型,正在成為AI治理的新范式。

      社會(huì)協(xié)同,為AI構(gòu)建“向善”大環(huán)境。

      當(dāng)詐騙犯能利用AI精準(zhǔn)模仿親人聲音,當(dāng)求職者因算法偏見(jiàn)喪失工作機(jī)會(huì),當(dāng)網(wǎng)絡(luò)信息被AI制作的海量虛假內(nèi)容深度污染,技術(shù)風(fēng)險(xiǎn)就已滲透社會(huì)的毛細(xì)血管。應(yīng)對(duì)AI帶來(lái)的不良沖擊,需要建立政府、企業(yè)、公眾共治的社會(huì)協(xié)同防御體系。政府要在鼓勵(lì)創(chuàng)新與管控風(fēng)險(xiǎn)之間保持平衡,企業(yè)要開(kāi)發(fā)更多AI安全技術(shù)產(chǎn)品,公眾要提升批判性思維與科技倫理素養(yǎng)。

      這也意味著,教育體系革新迫在眉睫。要在中小學(xué)引入“AI素養(yǎng)”教育,教導(dǎo)未成年人正確認(rèn)識(shí)AI;要在大學(xué)開(kāi)設(shè)“AI倫理”課程,培養(yǎng)技術(shù)人才的社會(huì)責(zé)任感;要在職業(yè)教育中設(shè)置“AI轉(zhuǎn)型”基金,資助因AI替代而失業(yè)的群體進(jìn)行技能重塑。

      AI技術(shù)不是萬(wàn)能的,缺席AI時(shí)代是萬(wàn)萬(wàn)不能的。站在智能革命的臨界點(diǎn)上,AI進(jìn)化方向應(yīng)由人類(lèi)的集體良知決定。引導(dǎo)AI向善,才能讓智能之火照亮人類(lèi)文明的未來(lái)。(本文來(lái)源:經(jīng)濟(jì)日?qǐng)?bào) 作者:佘惠敏)

    (責(zé)任編輯:王炬鵬)