8月29日消息,Uber工程博客最近刊發一篇有趣的文章,從內容看Uber使用Web式工具提煉自動駕駛汽車收集的研究數據,將它變成視覺圖像。無獨有偶,上周《大西洋月刊》也刊發一篇長文,說Waymo開發了相似的平臺。

《大西洋月刊》的文章很有趣,它似乎暗示谷歌改進無人駕駛AI的方法很獨特。真是這樣嗎?不是的,似乎每一家研究無人駕駛的公司都采用了相似的方法。
當測試汽車行駛了很遠的距離,企業會獲得大量數據。你可以在虛擬環境中讓數據組合、匹配,讓AI在虛擬環境中導航,就像在真實世界導航一樣。計算機并不知道二者是有區別的。與此同時你可以調節數據,觀察非常規事件,對多個模型進行對比。
Uber文章談論的重點在于數據的“可視化”,它還詳細介紹了自己的工具,工具是以Web作為基礎的,這樣協作起來更容易,開發新功能時調整方向也更簡單。現在Web應用程序已經可以訪問GPU,實時通信,完成許多任務時不再需要本地客戶端。Web應用程序還可以用來顯示GIF圖像。
有一點是博文沒有談到的:修飾環境,讓它從整個背景中突顯出來,從而進一步放大數據的價值,Uber是如何做的?例如,系統如果碰到游行抗議一樣的大事件如何處理?舉辦馬拉松比賽時是不是讓汽車自由行駛,這樣就可以了解跑步者是如何行動的?顯然不行。
最好的辦法就是拿一張波士頓地圖,這張地圖相當好,然后關閉一些主干道,向虛擬世界增加許多行人和古怪的司機,然后讓AI駕駛代理在虛擬世界穿梭。一旦出現問題,你能看到AI如何對事件做出反應,這些事件是它在真實世界未曾經歷過的。整個過程相當于“思維實驗”,它可以生成有用的數據,用來改善AI。
責任編輯:黃焱林