1942年,科幻作家艾薩克·阿西莫夫提出了機器人三定律:一是機器人不得傷害人類,也不得因不作為而使人類受到傷害;二是機器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;三是機器人必須保護自己的存在,除非這種保護與以上兩條相矛盾。這為人工智能倫理提供了基礎性框架,但其個體中心主義、靜態(tài)規(guī)則設定,以及“人類傷害”“服從命令”等模糊表述不能適應當代人工智能的復雜性,不能解決人工智能系統(tǒng)可能通過算法歧視、數(shù)據(jù)濫用等方式損害群體利益,無法有效約束動態(tài)演化的人工智能行為,不能提供明確的權(quán)責劃分機制。當前亟須通過多種路徑校準人工智能發(fā)展的航道,構(gòu)建適應人工智能迭代升級的倫理安全網(wǎng)。
首先是明確人工智能開發(fā)與運用的倫理底線。一是生命安全優(yōu)先。任何人工智能系統(tǒng)必須以保障人類生命為最高準則,尤其在自動駕駛、醫(yī)療決策等高風險場景中,通過預設算法優(yōu)先級,避免直接或間接傷害人類。二是責任可追溯性。人工智能開發(fā)者和運營方需對系統(tǒng)行為承擔法律責任,包括算法設計缺陷、數(shù)據(jù)濫用或決策失控等場景,建立從研發(fā)到應用的全鏈條責任追溯倫理機制,明確技術(shù)提供方與使用方的義務邊界。三是數(shù)據(jù)隱私與公平性。人工智能系統(tǒng)必須遵循數(shù)據(jù)最小化原則,實施嚴格的數(shù)據(jù)保護,采用先進的加密技術(shù)和匿名化處理,禁止采集與使用未經(jīng)授權(quán)的個人信息。
其次是推動人工智能系統(tǒng)的預防性倫理設計。在技術(shù)層面,新一代“道德嵌入式人工智能”已進入試驗階段。這類人工智能系統(tǒng)內(nèi)置“倫理沖突解決協(xié)議”,當醫(yī)療人工智能發(fā)現(xiàn)治療方案存在資源分配不公時,系統(tǒng)將自動觸發(fā)倫理預警。這種預防性的倫理設計,將“倫理優(yōu)先”和“智能向善”的道德要求嵌入到技術(shù)架構(gòu)之中。
再次要制定相關(guān)的倫理準則或法規(guī)。我國出臺的《新一代人工智能倫理規(guī)范》,將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供倫理指引。當然,為應對人工智能技術(shù)運用中的問題,構(gòu)建全球協(xié)同的人工智能倫理治理體系勢在必行。
必須說明,為人工智能安裝倫理“導航儀”,不是阻礙人工智能技術(shù)創(chuàng)新和進步的絆腳石,它既應保持對人工智能技術(shù)創(chuàng)新的包容,又應守住人類的價值底線。當人類做到在數(shù)字技術(shù)洪流中堅守倫理價值,當人工智能能夠從人類倫理視角理解并堅持“有所為有所不為”時,才能確保人工智能技術(shù)革命真正服務于人類。當更聰明的人工智能帶著人性的溫度與人類友好相處時,那便是“人機共生”新文明形態(tài)的到來。
(據(jù)《光明日報》)