特斯拉和SpaceX首席執行官埃隆·馬斯克(Elon Musk)曾經就人工智能(AI)發出新的警告,稱這種技術對人類的威脅比朝鮮核武器還要大,而且他曾一再表示,隨著越來越多地使用人工智能(AI),社會需要更加關心其安全問題。

馬斯克最近在推特上表示:“如果你之前不擔心AI的安全,那么現在你應該擔心了。”
SAP軟件解決方案公司的首席學習官珍妮·迪爾伯恩(Jenny Dearborn)對此觀點表示贊同。事實上,她說,教育好人工智能知識和如何最好地利用它是至關重要的。
她告訴CNBC:“人工智能將無處不在,這將是我們社會最普遍的一個現象,這種現象不會被明顯看到,但它會隱藏在一切的背后。”
迪爾伯恩認為人工智能會影響我們所做的一切
迪爾伯恩表示,它會影響我們所做的一切,包括掃描徽章,滾動網頁,使用應用程序和家庭傳感器系統以及許多其他日常生活方面。因此,人工智能將會不斷地收集數據和個人信息。企業可以利用這些信息和應用算法來了解你的行為。
她還表示:“我們需要使用人工智能來使人類更加強大,而不是取代人類。我們需要更多的人就如何使用人工智能發表他們的看法,這樣我們才不會被人工智能所利用。”
但誰會利用我們,我們為什么要小心呢?迪爾伯恩說,有三家人工智能前沿公司:谷歌、Facebook和亞馬遜。她說,如果人類被人工智能利用,這三家公司將獲益最多。人們需要深入了解人工智能的滲透程度,這樣他們才不會在某天醒來說“我一直就是一顆棋子”。
迪爾伯恩認為這是一個極端但似乎合理的情形。她問:“誰來做這個決定?”她說,如果我們不參與人工智能的討論,那么這些大公司將會擁有所有的話語權。
迪爾伯恩擔心,為方便起見,人們樂意泄露隱私。她表示:“他們說‘我接受’,但是,如果一家公司越過紅線怎么辦呢?”
迪爾伯恩說:“現在大多數公司都持有比政府更大的權力。”今后會有大量關于隱私,個人自由和紅線的討論。因此,教育是關鍵。
迪爾伯恩表示,我們應該決定我們希望新經濟是怎樣的,并理解我們在其中扮演的角色,參與討論,做一個有知情權的公民。這樣,關于人工智能如何被設計和以何為導向,社會大體上可以做出明智的決定。
馬斯克認為人工智能對人類文明的存在構成了根本性的風險
馬斯克表示贊同,他說:“人工智能對人類文明的存在構成了根本性的風險,這與汽車事故、飛機相撞、藥物錯配、食品安全的影響方式不同,后者只會對社會局部造成損害,不會對整個社會造成威脅。”
迪爾伯恩的解決方案如下:“我們應該訓練年輕人對我們要去往哪里持批評態度。”她說,她支持年輕人進入科技行業,事實上,對我們生活產生最大影響的重大決策經常來自于科技行業,而不是政府。如果你想從事衛生保健行業,就選擇以醫療保健為重點的科技類專業;如果你想成為一名神經系統的科學家,那就選擇以神經系統為重點的科技類專業。”
迪爾伯恩補充說,我們最大的社會責任是弄清楚社會如何使用人工智能。她舉了這樣一個例子:谷歌一直在嘗試自動駕駛汽車。但是,如果一輛無人駕駛汽車即將發生碰撞,它必須在拯救駕駛員和撞向人群,或避開人群但讓載有駕駛員的汽車發生碰撞之間做出一個數學決策,那該怎么辦?
盡管她承認這是一個極端的例子,但迪爾伯恩說,人們很快就必須回答這類型的問題。因此,讓更多不同的人群參與到有關人工智能開發和應用方式的討論很重要。
她說:“這就像創建一個政府結構和社會秩序。你需要確保建立這些系統的人有平等的代表權,多樣性和包容性。現在的科技領域以白人男性為主,他們對我們的道德和社會原則制定了規則。對此,我們不能采取自由放任的方式。這些都是道德準則和紅線,不能讓一個營利性公司自己做出這些決定。”
責任編輯:黃焱林