今年5月7日在佛羅里達州,一位駕駛特斯拉Model S的車主使用了自動駕駛模式后,發(fā)生車禍并身亡。這是第一起自動駕駛模式下的致死車禍。這次事故將自動駕駛技術的安全問題擺上了桌面。
今日推薦文章《人類介入的深度學習將提高無人駕駛汽車的安全性》,來自頭條號人工智能學家。
不久以后,AI驅(qū)動的無人駕駛汽車將大規(guī)模上路。
但是無人駕駛車上路只是成功的一半。系統(tǒng)操作員還需要對上路的無人車軟件模型,車隊頻繁地部署升級。無人車不是幾個月才升級一次的手機小游戲,為了保證乘客安全,無人車的軟件必須定期升級。
很多汽車制造商認為,他們面臨的最大的挑戰(zhàn)就是需要持續(xù)地對軟件模型進行訓練和升級。最終解決方案中,深度學習AI技術平臺,組織管理功能,甚至包括人類都是其中各司其職的一部分。

距完全無人駕駛汽車的發(fā)布至少還需要5年左右。目前的無人車安全性還沒有達到大規(guī)模商用的標準。谷歌無人汽車還在犯錯,比如它不明白為什么停車標志下騎車的人坐著不動,可以在高速上行駛的特斯拉Autopilot卻在當?shù)亟值郎铣霈F(xiàn)故障。其實,需要解決的無人駕駛汽車的極端情況數(shù)不勝數(shù),還有很多未發(fā)現(xiàn)或未考慮在內(nèi)的問題。只有解決了足夠多的場景下可能出現(xiàn)的問題后,無人駕駛汽車才能說是“足夠安全”的。正如特斯拉最近發(fā)布的消息:
“無人車的正確率達到99%相對容易,但要達到99.9999%卻要困難的多,而這才是我們最終的目標, 因為以70英里每秒行駛的車如果出現(xiàn)故障后果不堪設想。”
持續(xù)不斷的升級挑戰(zhàn)
雖不能達到100%的精準度,但我們?nèi)砸^續(xù)嘗試,這正是在無人汽車大規(guī)模進入市場后,持續(xù)對其“大腦”進行升級將成為業(yè)界慣例的原因之一。同時,這也是新興科技與人類強強聯(lián)合的用武之地。
想要理解為什么持續(xù)升級過程會帶來挑戰(zhàn),以及科技和人類如何合作,可以先了解一點無人汽車的工作模式,以及人類“教”無人車駕駛的方法。假設現(xiàn)在是2025年,Hooli公司 的全無人汽車已經(jīng)商用了好幾年。在上百萬已經(jīng)上路的Hooli無人汽車中,大概每輛汽車中都有一個機載計算機。

計算機將車載傳感器的信號作為輸入,并輸出汽車應該采取的操作。計算機用一個高度精準的深度學習神經(jīng)網(wǎng)絡模型編程而成,汽車可以高質(zhì)量地完全幾百種行為,比如遵守停車標志,遇見黃燈減速,避免撞到十字路口的行人等等。但如上所述,Hooli希望定期升級模型以提高安全性,而他們希望的升級頻率是一周一次。
為簡單起見,假設Hooli只想提升一項汽車行為的性能——變換車道。Hooli的無人汽車每周都要執(zhí)行1億多次變換車道的操作,在此期間汽車會搜集附近汽車的地理空間信息并據(jù)此作出操作抉擇。而附近汽車的地理空間信息由車載攝像機所拍攝圖片的3D“包圍盒”顯示出來。
人工介入
深度學習模型計算出的某些包圍盒難免會有瑕疵,而這些錯誤可能會導致災難。比如,如果模型估計旁邊那輛15英尺的汽車只有10英尺長,無人駕駛汽車就會變換車道并撞到這輛車的保險杠,導致車禍甚至是人員傷亡。幸運的是,這種災難可以通過人類的介入而避免。人類能夠檢查模型得出的邊界框,發(fā)現(xiàn)任何錯誤都可以重新繪制,不斷糾正的過程中車載模型就能夠不斷升級。
當然,讓人類每周檢查1億個變換車道的視頻并不實際,幸運的是,Hooli有一個更簡單的辦法。產(chǎn)生包圍盒的深度模型有不同的置信度,低置信度通常會產(chǎn)生不準確的邊界框,因此如果Hooli的員工只觀看低置信度的邊界框,也能合理地確保能夠找到無人車最嚴重的故障。

比如,Hooli 讓員工觀看的含邊界框的視頻的置信度低于30%。結(jié)果顯示滿足這一標準的視頻只有5000,這明顯比1億個視頻更好追溯。假設對一個視頻的邊界框進行檢查和糾正(如果必要的話)需要一分鐘,那么5000個視頻則可以由100個人在一個小時內(nèi)完成,那么Hooli 每周就有足夠的時間升級深度學習模型。
改正了錯誤的邊界框,升級后的圖像可以饋入訓練過程,并生成升級后的模型。為了檢驗升級后模型的性能是否優(yōu)于升級前模型,Hooli 分別用驗證數(shù)據(jù)集對兩個模型進行檢驗(比如,含有人類驗證后的邊界框的共計一個小時的視頻),并比較兩個模型預測的邊界框與人類驗證后的邊界框的整體“貼近度”。然后將提升后的模型部署到1百萬輛Hooli 汽車中,這與現(xiàn)在的特斯拉的軟件升級有點像。
很多人擔心AI會不會讓所有事物自動化,偷走人類工作,甚至將人類趕下臺等。深度學習等科技帶來了無人駕駛的巨大進步,但仍然需要人的大量參與才能識別無人駕駛系統(tǒng)的故障,研發(fā)并管理更改故障的流程,這或許讓人稍感寬慰。簡而言之,讓汽車學習思考還是需要人類出馬。
注:本文作者Naveen Rao是 Nervana Systems 的CEO,同時也是一位神經(jīng)學家和處理器架構(gòu)師,一直致力于研發(fā)電腦模擬人腦的方法。
