
人工智能發展帶來挑戰
埃吉爾泰革和亞姆尼克等表示,從股票交易到房地產價格確定、從檢測欺詐行為到不同語言間的翻譯工作、從創建每周購物清單到預測受歡迎的電影類型,人工智能已經在諸多領域得到了應用。在不久的將來,我們還將使用人工智能程序來了解人們的健康狀況,發明新的藥物和治療方法;自動駕駛汽車將改變交通系統和城市規劃方式。機器提高我們的生產效率,并幫助我們預測社會風險。
然而,如果我們不在整個社會層面上仔細規劃,人工智能技術的發展也可能會帶來消極后果。學者提出,支撐自動駕駛汽車的技術可能會帶來戰場上的危險新武器;使工作自動化的技術可能會導致許多人失業;利用歷史數據進行訓練的算法程序可能會延續甚至加劇基于種族或性別的歧視;需要大量個人數據的系統,例如醫療保健系統,可能會導致人們的隱私受到損害。
埃吉爾泰革和亞姆尼克等提出,面對這些挑戰,不僅需要自然科學領域的專家學者貢獻自己的智慧,也需要藝術、人文和社會科學領域的知識,需要深入研究與人工智能有關的政策和治理問題。
將道德準則嵌入人工智能程序
就此問題,法國國家科學研究中心主任研究員塞巴斯蒂安·科涅奇內(Sébastien Konieczny)在接受中國社會科學報記者采訪時表示,人工智能程序也有它們的弱點。如許多人工智能程序都具有深入學習后得出結論的功能,但這些人工神經網絡就像是在黑匣子里運行一樣,人們難以得知它做出決定的原因??稍趯嶋H應用中,有關機構或個人需要知曉所做決定的原因,以保證每個人都得到公平對待。盡管已經有研究人員在嘗試對人工智能黑匣子的“可解釋性”進行研究,但要從中有所發現則比較困難。
人工智能程序不是完全中性的,它們也會受到偏見的影響。科涅奇內認為,“如果一個系統是由大量來自人類言語的數據驅動的,那么它會再現人類的偏見就毫不奇怪了”。人工智能程序不僅會受到系統設計者自身所持觀點的影響,也會受到那些為人工智能程序提供培訓的人的影響。
在大范圍使用深度學習技術之前,制定并向人工智能程序灌輸一些道德規則很有必要。不過,學者認為,將“判斷結果不取決于性別、年齡、膚色”的規則傳授給人工智能程序目前還有困難。
最終決定權應由人掌握
在科涅奇內看來,目前應該建立具體的倫理問題管理委員會,制定有關人工智能和數字技術的研究規則。這可以幫助研究人員評估哪些界限是不可跨越的,防止研究工作發生不當的偏移。
埃吉爾泰革和亞姆尼克等表示,不能因為機器擁有大量的信息,人們就認為它們更可信。從實踐結果來看,應該將最后的決定權留給人類,而不能完全依賴人工智能。因此,應該將系統配制成能夠給出幾個不同解決方案的形式,如果可能的話這些解決方案中還應該附有相關的原因及其后果,并讓人類做出最終選擇。
學者還提到,機器人既不善良也不卑鄙,更不應該有個人目的或計劃,它們應該按照我們希望或者設計的那樣完成工作。當人工智能出現一些意外副作用時,我們可以解決問題,不讓這些副作用造成危險。如果機器人的活動造成了死亡或者刑法上規定的重大案件,為了給予遇難者應有的賠償,有必要建立一個由制造或擁有這些機器的公司推動的保險基金。比起控制機器人,對那些控制機器的私人公司進行規制更顯重要。